Microsoft ha reconocido un fallo de software en su asistente de inteligencia artificial Copilot Chat que permitió a la herramienta leer y resumir correos electrónicos marcados como “confidenciales” sin autorización, incluso cuando las empresas tenían políticas de protección de datos activadas, según confirmaron fuentes oficiales y medios tecnológicos.
Qué pasó:
- El error, identificado como CW1226324, fue detectado por primera vez el 21 de enero de 2026.
- Permitió que la función de chat de Copilot en Microsoft 365 Office (incluyendo Outlook, Word, Excel y PowerPoint) procesara contenidos confidenciales de los correos electrónicos almacenados en las carpetas de “Enviados” y “Borradores”, aunque esas comunicaciones tuvieran etiquetas diseñadas para impedir este acceso.
- La vulnerabilidad bypass (eludió) las políticas de prevención de pérdida de datos (DLP) que las empresas configuran para proteger la información sensible.
Respuesta de Microsoft:
- La compañía dijo que el fallo se debió a un error de código y que comenzó a desplegar un arreglo en febrero; sin embargo, aún está monitoreando la efectividad del parche y no ha detallado cuántos clientes fueron afectados.
- Microsoft también afirmó que el proceso de corrección continúa y que está contactando a algunos usuarios para verificar que el problema esté resuelto.
Este incidente ha puesto en alerta a organizaciones y expertos en ciberseguridad porque contradice directamente las promesas de privacidad y protección de datos que muchas empresas esperan de herramientas de inteligencia artificial integradas en entornos corporativos.
Además, algunos grupos han tomado medidas cautelares; por ejemplo, departamentos tecnológicos del Parlamento Europeo bloquean funciones integradas de IA por preocupaciones similares de exposición de datos.



