Tecnología

OpenAI refuerza ChatGPT Atlas con un sistema de defensa continua contra ataques cibernéticos

Lanzado en octubre, ChatGPT Atlas permite al asistente visualizar páginas web y realizar acciones dentro del navegador de forma autónoma.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

23 de diciembre de 2025, 12:29 p. m.
OpenAI ha anunciado mejoras significativas en la seguridad de su navegador ChatGPT Atlas.
OpenAI ha anunciado mejoras significativas en la seguridad de su navegador ChatGPT Atlas. Foto: VCG via Getty Images

OpenAI ha dado a conocer nuevos avances para reforzar la seguridad del navegador ChatGPT Atlas frente a las vulnerabilidades derivadas de los ataques de inyección. Para ello, la compañía ha implementado un sistema de defensa continua que se anticipa a este tipo de amenazas y busca reducir los riesgos para los usuarios.

ChatGPT Atlas, lanzado en octubre, incorpora funciones avanzadas que permiten al asistente visualizar páginas web y ejecutar acciones dentro del navegador de forma autónoma. Estas capacidades mejoran la productividad durante la navegación y amplían las posibilidades de asistencia al usuario en múltiples tareas.

No obstante, al igual que otros navegadores agénticos con autonomía operativa, ChatGPT Atlas no está exento de riesgos. En concreto, puede verse afectado por ataques de inyección, una técnica que introduce instrucciones ocultas para que el modelo de lenguaje las procese y ejecute acciones que, en condiciones normales, estarían bloqueadas por su carácter potencialmente dañino.

ChatGPT Atlas es vulnerable a la inyección de portapapeles, que copia URL maliciosa oculta para robar contraseñas.
Al tener autonomía para ejecutar acciones, este tipo de navegadores se convierten en un objetivo atractivo para los ciberdelincuentes. Foto: SOPA Images/LightRocket via Gett

Este tipo de vulnerabilidad, que convierte a estos sistemas en objetivos atractivos para los ciberdelincuentes, salió a la luz recientemente tras detectarse un caso de inyección a través del portapapeles. En este escenario, la IA copiaba un enlace malicioso sin que el usuario lo advirtiera, de modo que el contenido se activaba al pegarlo posteriormente en la barra de direcciones.

Ante esta situación, OpenAI ha señalado que está llevando a cabo un refuerzo continuo contra los ataques de inyección rápida, con el objetivo de detectar y corregir de forma proactiva las vulnerabilidades de sus agentes antes de que “se conviertan en armas en la práctica”.

ChatGPT se renueva con mejoras clave y nuevas opciones para personalizar el ‘chatbot’

Así lo ha explicado la compañía en una publicación de su blog, donde ha detallado la implementación de una actualización de seguridad para ChatGPT Atlas. Esta mejora incluye un nuevo modelo entrenado específicamente para enfrentarse a adversarios, junto con controles de seguridad más robustos.

Entre las novedades destaca un ciclo de respuesta rápida, desarrollado en colaboración con su equipo rojo interno, que cuenta con capacidades para investigar y descubrir ataques de manera constante y desplegar mitigaciones con mayor rapidez.

Asimismo, OpenAI ha indicado que, para explorar nuevas estrategias ofensivas, ha recurrido a un “atacante automatizado basado en LLM”. Se trata de un bot entrenado para asumir el rol de un hacker y buscar formas de introducir instrucciones maliciosas en un agente de IA dentro de ChatGPT Atlas.

“Nuestro atacante, entrenado mediante aprendizaje por refuerzo, puede inducir a un agente a ejecutar flujos de trabajo dañinos, sofisticados y de largo alcance, que se desarrollan en decenas o incluso cientos de pasos”, ha explicado la compañía.

Su objetivo es integrar la experiencia conversacional de ChatGPT directamente en la navegación por internet.
Los ataques de inyección introducen órdenes maliciosas camufladas en el contenido web para que la IA las procese y ejecute. Foto: Getty Images

Este bot ejecuta ataques en entornos de simulación para analizar cómo responde el agente de IA y qué medidas debería adoptar para neutralizarlos. El proceso se repite de forma iterativa, ya que el sistema ajusta su comportamiento en función de la respuesta obtenida y vuelve a intentarlo.

Como resultado de este enfoque, OpenAI asegura que está identificando nuevas estrategias de ataque de manera interna, “antes de que aparezcan en el mundo real”. Según la empresa, esta metodología, junto con una mayor inversión en controles de seguridad, puede hacer que los ataques de inyección rápida sean cada vez más difíciles y costosos, reduciendo así su impacto en escenarios reales.

El histórico Asistente de Google tiene los días contados: Gemini lo reemplazará definitivamente en 2026 por este motivo

Con todo ello, la compañía reafirma su compromiso de seguir mejorando la seguridad para que los usuarios puedan confiar en un agente de ChatGPT al usar su navegador “de la misma forma en que confiarían en un amigo altamente competente y consciente de la seguridad”.

Aun así, OpenAI reconoce que es “poco probable” que la inyección rápida —al igual que ocurre con las estafas o la ingeniería social en la web— pueda erradicarse por completo. “Consideramos que la inyección rápida es un desafío de largo plazo para la seguridad de la IA, por lo que será necesario reforzar continuamente nuestras defensas frente a ella”, concluye la tecnológica.

*Con información de Europa Press.


Mas de Tecnología



Noticias Destacadas