Estados Unidos
La peligrosa recomendación de ChatGPT que llevó a un hombre al hospital psiquiátrico y encendió las alarmas sobre la IA
El hombre le pidió a la IA una recomendación para reemplazar la sal en su comida, pero la respuesta le costó una rara afección a su salud.

Un hombre fue hospitalizado en Estados Unidos tras preguntarle al servicio de mensajería de inteligencia artificial (IA), ChatGPT, sobre cómo eliminar la sal de su dieta. La recomendación del robot provocó una rara afección en el paciente.
De acuerdo con un estudio de la revista de salud Annals of Internal Medicine: Clinical Cases, la inteligencia artificial le respondió que podía incluir bromuro de sodio en sus comidas, una práctica que llevó a cabo el paciente durante algunos meses, según detalla la revista.

De acuerdo con el artículo, es probable que el comando para ChatGPT no hubiese estado bien explicado, pues su recomendación “probablemente sería para otros fines, como la limpieza”.
Tras varias semanas de consumir bromuro, el hombre fue internado en un centro psiquiátrico, luego de manifestar que creía ser envenenado por su vecino. Cuando fue internado, el hombre le aseguró a los médicos que sufría de paranoia y alucinaciones, una condición que había empeorado con el tiempo, según el informe de la revista.
Lo más leído
Según el artículo científico, la toxicidad por bromuro —conocida como bromismo— provoca síntomas psiquiátricos, incluso puede intensificarlos si la persona tiene antecedentes. Esta también puede resultar en afecciones dermatológicas.

Esta enfermedad fue bastante común en el siglo XX, debido a que cientos de medicamentos contenían el compuesto químico, usado en su mayoría en analgésicos. Fue entonces cuando la Administración de Alimentos y Medicamentos de Estados Unidos lo eliminó de manera gradual.
Para cuando los médicos evidenciaron que la condición del hombre fue provocada por el consumo de bromuro de sodio por varios días, siguieron el tratamiento adecuado para poder darlo de alta, narra el artículo de la revista.
“Este caso también destaca cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de resultados adversos para la salud prevenibles”, se lee en el informe.

“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, fomentar la propagación de desinformación”, continúa.
El caso del hombre se suma a otros similares que han abierto el debate sobre el uso de la IA para detectar enfermedades o para seguir recomendaciones de la salud, pues los expertos han manifestado que, pese a que sirve de guía, las recomendaciones de ChapGPT no responden a las necesidades específicas de cada paciente.