Tecnología
Piénselo dos veces si va a usar ChatGPT como psicólogo; incluso Altman, su creador, puso en duda la seguridad
Sam Altman advirtió que ChatGPT no ofrece confidencialidad como un terapeuta real.

La expansión de herramientas como ChatGPT ha abierto nuevas posibilidades de interacción, incluyendo un uso cada vez más común: el de confidente emocional. Sin embargo, las implicaciones de confiarle detalles íntimos a un sistema de lenguaje automatizado han encendido alertas en la propia empresa que lo desarrolló, OpenAI.
En la actualidad, muchas personas encuentran en los modelos de inteligencia artificial un espacio para expresar conflictos personales o recibir orientación sobre temas sensibles. Gracias a su capacidad de generar respuestas basadas en amplias bases de datos, estos sistemas pueden simular la conversación con un especialista. No obstante, esta aparente cercanía puede ser engañosa.
Una conversación sin garantías de privacidad
Durante una entrevista en el pódcast This Past Weekend with Theo Von, el CEO de OpenAI, Sam Altman, compartió su preocupación sobre cómo algunas personas, en especial jóvenes, están utilizando ChatGPT para hablar sobre relaciones sentimentales, problemas emocionales o dilemas existenciales.

Altman fue enfático: en estas interacciones no existe ninguna protección legal que garantice la confidencialidad de la información, como sí ocurre en el vínculo paciente-terapeuta o entre cliente y abogado. El directivo señaló que aún no se han desarrollado mecanismos jurídicos que resguarden la privacidad de quienes usan la IA como si conversaran con un profesional humano.
Lo más leído
Este vacío normativo deja a los usuarios expuestos, ya que los datos compartidos podrían no estar completamente protegidos frente a solicitudes judiciales o procesos de investigación.
Riesgos ocultos en situaciones vulnerables
La inquietud sobre el uso de estos sistemas en contextos delicados también ha sido abordada por la comunidad académica. Un informe reciente de la Universidad de Stanford advirtió que los modelos de lenguaje como ChatGPT pueden generar respuestas inapropiadas o incluso peligrosas cuando se les consulta sobre temas de salud mental.
Según los investigadores, existe el riesgo de que la IA no logre identificar señales de alerta como pensamientos suicidas o que, por el contrario, valide ideas erróneas en momentos de alta vulnerabilidad emocional.

OpenAI, por su parte, ha reconocido los desafíos legales asociados con la privacidad de los datos. En un comunicado oficial, la compañía respondió a una orden judicial, considerada por ellos como una “extralimitación” que podría obligarla a revelar información protegida. De avanzar este tipo de acciones, se abriría la puerta a demandas que comprometerían aún más la seguridad de los datos de los usuarios.