Estados Unidos

La peligrosa recomendación de ChatGPT que llevó a un hombre al hospital psiquiátrico y encendió las alarmas sobre la IA

El hombre le pidió a la IA una recomendación para reemplazar la sal en su comida, pero la respuesta le costó una rara afección a su salud.

14 de agosto de 2025, 1:19 a. m.
“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
Un hombre de 60 años usó ChatGPT para fines médicos y terminó internado. | Foto: adobe stock

Un hombre fue hospitalizado en Estados Unidos tras preguntarle al servicio de mensajería de inteligencia artificial (IA), ChatGPT, sobre cómo eliminar la sal de su dieta. La recomendación del robot provocó una rara afección en el paciente.

De acuerdo con un estudio de la revista de salud Annals of Internal Medicine: Clinical Cases, la inteligencia artificial le respondió que podía incluir bromuro de sodio en sus comidas, una práctica que llevó a cabo el paciente durante algunos meses, según detalla la revista.

bicarbonato
El hombre preguntó cómo reemplazar la sal de su dieta. | Foto: Getty Images

De acuerdo con el artículo, es probable que el comando para ChatGPT no hubiese estado bien explicado, pues su recomendación “probablemente sería para otros fines, como la limpieza”.

Tras varias semanas de consumir bromuro, el hombre fue internado en un centro psiquiátrico, luego de manifestar que creía ser envenenado por su vecino. Cuando fue internado, el hombre le aseguró a los médicos que sufría de paranoia y alucinaciones, una condición que había empeorado con el tiempo, según el informe de la revista.

Según el artículo científico, la toxicidad por bromuro —conocida como bromismo— provoca síntomas psiquiátricos, incluso puede intensificarlos si la persona tiene antecedentes. Esta también puede resultar en afecciones dermatológicas.

Inteligencia Artificial
La Inteligencia Artificial le recomendó al hombre consumir bromuro de sodio, peligroso para la salud de las personas. | Foto: Getty Images

Esta enfermedad fue bastante común en el siglo XX, debido a que cientos de medicamentos contenían el compuesto químico, usado en su mayoría en analgésicos. Fue entonces cuando la Administración de Alimentos y Medicamentos de Estados Unidos lo eliminó de manera gradual.

Para cuando los médicos evidenciaron que la condición del hombre fue provocada por el consumo de bromuro de sodio por varios días, siguieron el tratamiento adecuado para poder darlo de alta, narra el artículo de la revista.

“Este caso también destaca cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de resultados adversos para la salud prevenibles”, se lee en el informe.

El hombre fue internado en un centro psiquiátrico tras varios días consumiendo bromuro. | Foto: istock

“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, fomentar la propagación de desinformación”, continúa.

El caso del hombre se suma a otros similares que han abierto el debate sobre el uso de la IA para detectar enfermedades o para seguir recomendaciones de la salud, pues los expertos han manifestado que, pese a que sirve de guía, las recomendaciones de ChapGPT no responden a las necesidades específicas de cada paciente.