Microsoft confirma grave error en Copilot que expuso correos electrónicos confidenciales a la IA

Microsoft ha reconocido un fallo de software en su asistente de inteligencia artificial Copilot Chat que permitió a la herramienta leer y resumir correos electrónicos marcados como “confidenciales” sin autorización, incluso cuando las empresas tenían políticas de protección de datos activadas, según confirmaron fuentes oficiales y medios tecnológicos.

Qué pasó:

  • El error, identificado como CW1226324, fue detectado por primera vez el 21 de enero de 2026.
  • Permitió que la función de chat de Copilot en Microsoft 365 Office (incluyendo Outlook, Word, Excel y PowerPoint) procesara contenidos confidenciales de los correos electrónicos almacenados en las carpetas de “Enviados” y “Borradores”, aunque esas comunicaciones tuvieran etiquetas diseñadas para impedir este acceso.
  • La vulnerabilidad bypass (eludió) las políticas de prevención de pérdida de datos (DLP) que las empresas configuran para proteger la información sensible.

Respuesta de Microsoft:

  • La compañía dijo que el fallo se debió a un error de código y que comenzó a desplegar un arreglo en febrero; sin embargo, aún está monitoreando la efectividad del parche y no ha detallado cuántos clientes fueron afectados.
  • Microsoft también afirmó que el proceso de corrección continúa y que está contactando a algunos usuarios para verificar que el problema esté resuelto.


Este incidente ha puesto en alerta a organizaciones y expertos en ciberseguridad porque contradice directamente las promesas de privacidad y protección de datos que muchas empresas esperan de herramientas de inteligencia artificial integradas en entornos corporativos.
Además, algunos grupos han tomado medidas cautelares; por ejemplo, departamentos tecnológicos del Parlamento Europeo bloquean funciones integradas de IA por preocupaciones similares de exposición de datos.

Facebook
Twitter
LinkedIn
Pinterest