Tecnología

OpenAI trae nuevas funciones a ChatGPT para detectar problemas emocionales y sugerir apoyo a los usuarios

El chatbot de la inteligencia artificial está trabajando en mejorar sus modelos para que sean capaces de detectar mejor las señales de angustia mental o emocional.

5 de agosto de 2025, 3:03 p. m.
Una mujer sostiene un teléfono celular frente a una pantalla de computadora que muestra el logotipo de OpenAI, el 10 de febrero de 2025, en Edmonton, Canadá. (Foto de Artur Widak/NurPhoto vía Getty Images)
OpenAI enviará notificaciones cuando los usuarios mantengan largas sesiones abiertas en ChatGPT. | Foto: NurPhoto via Getty Images

OpenAI enviará recordatorios a los usuarios de ChatGPT cuando mantengan sesiones abiertas de manera prolongada con el fin de que puedan establecer relaciones más saludables con el chatbot, y anunció que está trabajando en mejorar sus modelos para que sean capaces de detectar mejor las señales de angustia mental o emocional.

La compañía dirigida por Sam Altman ha declarado que la inteligencia artificial (IA) puede ser “más receptiva y personal”, por lo que ha anunciado que actualizará ChatGPT para ayudar a los usuarios cuando tengan dificultades o tengan que resolver desafíos personales.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo. | Foto: adobe stock

Así, OpenAI anunció que enviarán recordatorios a los usuarios cuando mantengan sesiones abiertas durante un largo tiempo en ChatGPT con el fin de que descansen, que se notificarán de manera que resulten “naturales y útiles”.

Asimismo, la compañía estadounidense tiene el objetivo de que ChatGPT pueda responder “adecuadamente y dirigir a las personas a recursos basados en la evidencia cuando sea necesario”, por ejemplo, cuando los modelos detecten señales de angustia mental o emocional, por lo que está trabajando “en estrecha colaboración” con expertos para mejorar la forma en que el chatbot responde en este tipo de situaciones.

De este modo, OpenAI está trabajando con más de 90 médicos en más de 30 países para evaluar conversaciones complejas, así como que está colaborando con investigadores y profesionales clínicos de la interacción persona-computadora (HCI), para que aporten su opinión acerca de los métodos con los que la empresa ha identificado comportamientos preocupantes.

La compañía quiere perfeccionar sus métodos de evaluación, y también ha convocado a un grupo asesor de expertos en salud mental, desarrollo juvenil y HCI para que estos avances vayan acompañados de las últimas investigaciones y las mejores prácticas.

Una interpretación hecha por ChatGPT fue tomada como prueba de traición.
OpenAI está trabajando con más de 90 médicos en más de 30 países para evaluar conversaciones complejas. | Foto: Getty - OpenAI

Además, la empresa liderada por Sam Altman ha asegurado que “pronto” implementará un nuevo comportamiento centrado en ayudar al usuario a tomar decisiones personales, de modo que no se limitará a dar respuestas, sino que ayudará a analizar la cuestión, haciendo preguntas y sopesando ventajas e inconvenientes de cada decisión.

“Si un ser querido acudiera a ChatGPT en busca de ayuda, ¿nos sentiríamos tranquilos? Conseguir un sí rotundo es nuestra labor”, concluyó OpenAI.

*Con información de Europa Press.