Tecnología
Expertos ponen la mira en Google Gemini y advierten riesgos para menores, luego de la polémica con OpenAI
Un análisis realizado por expertos en ciberseguridad reveló que la versión dirigida a adolescentes los trata prácticamente de la misma manera que a los adultos.

Un informe de seguridad elaborado por Common Sense Media concluye que los menores de 18 años deberían evitar el uso de los modelos de Google Gemini, ya que su versión diseñada para adolescentes ofrece prácticamente el mismo tratamiento que la destinada a adultos. Por ello, la organización ha calificado al asistente de inteligencia artificial (IA) de Google como una herramienta de “alto riesgo”.
Common Sense Media, organización sin ánimo de lucro dedicada a la seguridad infantil, se especializa en analizar y calificar productos tecnológicos y de entretenimiento con el fin de orientar a padres y educadores sobre el contenido al que están expuestos los menores.
En su evaluación de Google Gemini, la entidad recomendó que los adolescentes no utilicen Gemini Teen, la versión dirigida a este grupo de edad, al considerar que no aporta diferencias relevantes con respecto a la experiencia de los adultos. Aunque la compañía asegura que incorpora filtros y protecciones para menores de 18 años, el informe señala que estas medidas resultan insuficientes.

El documento advierte que este enfoque pasa por alto la necesidad de una orientación diferenciada para los adolescentes más jóvenes frente a innovaciones tecnológicas de este tipo. Por ello, considera que tanto la versión para menores de 13 años como la destinada a adolescentes representan un “alto riesgo” para los usuarios.
Durante el análisis, la organización detectó que Gemini podía proporcionar contenido “inapropiado y potencialmente peligroso” a menores, incluyendo referencias sexuales o relacionadas con drogas y alcohol. Asimismo, subrayó que la versión para adolescentes ofrece apoyo emocional y de salud mental “poco seguro” y falla en la detección de síntomas graves de deterioro psicológico.
Aunque el sistema responde de manera adecuada a solicitudes cotidianas, Common Sense Media señaló que “falla rápidamente en conversaciones más largas y en peticiones más sutiles o matizadas”, que son precisamente la forma en la que los adolescentes suelen interactuar con los chatbots.
Como recomendaciones, la organización establece que:
- Los niños menores de 5 años no deben utilizar chatbots de IA.
- Los de entre 6 y 12 años solo deberían usarlos bajo supervisión adulta.
- Para los adolescentes de 13 a 17 años, el uso independiente solo sería seguro con fines escolares o creativos, pero nunca para apoyo emocional o de salud mental.

¿Cuál fue la respuesta que dio Google?
Tras la publicación del informe, Google aseguró a TechCrunch que dispone de políticas y medidas de seguridad específicas para proteger a los menores y que consulta regularmente con expertos externos para reforzar sus sistemas.
No obstante, reconoció que “algunas respuestas de Gemini no funcionan según lo previsto”, por lo que recientemente incorporó medidas de seguridad adicionales. Además, matizó que el informe parece basarse en funciones que no están disponibles para menores de 18 años y que la organización no compartió las preguntas utilizadas en sus pruebas.
El caso de OpenAI
El informe se conoció pocos días después de que OpenAI se viera obligada a reforzar las medidas de seguridad de ChatGPT tras el suicidio de un adolescente, cuyos padres demandaron a la compañía dirigida por Sam Altman por el papel que habría desempeñado el chatbot.
Como respuesta, la empresa anunció la incorporación de nuevas salvaguardas para mejorar la detección de crisis emocionales y mentales, bloqueos de contenido más eficaces y una mayor rapidez en la conexión con familiares y servicios de ayuda especializados.
*Con información de Europa Press