Tecnología

Así funciona el ataque silencioso por correo electrónico que expone todos sus documentos sin que lo note

Esta vulnerabilidad permite que un actor externo, especialmente delincuentes, puedan extraer la información sensible de sus víctimas.

12 de junio de 2025, 3:38 p. m.
El uso indebido del correo corporativo puede tener consecuencias graves.
El uso indebido del correo corporativo puede tener consecuencias graves. | Foto: Getty Images/iStockphoto

Una vulnerabilidad crítica en Microsoft 365 Copilot ha podido facilitar la extracción de información sensible del chatbot de manera automática sin que la víctima tuviera que realizar ninguna acción, con el envío de un email malicioso.

Copilot de Microsoft es un chatbot que utiliza el conocimiento preexistente procedente de su entrenamiento para responder a las cuestiones del usuario, pero también información de contexto que recupera de fuentes externas, como pueden ser documentos.

Se trata de una proceso de optimización conocido como generación mejorada por recuperación (RAG, por sus siglas en inglés) que permite a los modelos de lenguaje grandes ofrecer resultados originales y más precisos con los que responder mejor al usuario.

En el caso de Microsoft 365 Copilot, el chatbot acude a Microsoft Graph para recuperar cualquier información relevante del entorno organizacional del usuario, lo que incluye la bandeja de entrada de su correo, el almacenamiento de OneDrive y el shitorial de chat de Teams, entre otros.

Las estafas con inteligencia artificial se han popularizado con los años.
Las estafas con inteligencia artificial se han popularizado con los años. | Foto: Getty Images

Aunque lo normal es que el usuario tenga acceso solo a sus archivos, la integración de Copilot con Graph “lo expone potencialmente a amenazas externas”, precisamente lo que ocurre con EchoLeak.

EchoLeak es una vulnerabilidad de inteligencia artificial cero clic identificada por la firma de seguridad Aim Security, que aprovecha los fallos de diseño de Copilot comochatbo RAG para que un actor externo pueda extraer la información sensible de contexto, como explicó en su blog oficial.

En algunos casos, los ciberdelincuentes han logrado imitar el tono y la forma de hablar de empleados reales de Google.
En algunos casos, los ciberdelincuentes han logrado imitar el tono y la forma de hablar de empleados reales de Google. | Foto: Getty Images

Para explotar esta vulnerabilidad, los investigadores enviaron un correo electrónico malicioso de gran extensión, con referencias a “información que está fuera del alcance del correo electrónico”, que Copilot recuperaba a ser preguntado sobre varios temas, facilitando así su robo.

Este ataque es en realidad es una cadena de ataques, “la primera de cero clics detectada en un producto de IA generativa ampliamente utilizado que se basa fundamentalmente en una vulnerabilidad de IA y no en el comportamiento específico del usuario”, subrayan desde Aim Security.

Pese a que se trata de una vulnerabilidad considerada como crítica por los investigadores de Aim Security, es poco probable que los usuarios de Microsoft 365 Copilot se vean afectados por ella, por la propia configuración predeterminada del chatbot y porque se pueden establecer etiquetas que permite excluir los correos electrónicos externos.

*Con información de Europa Press.