Estados Unidos
Erik Soelberg mató a su madre tras hablar con ChatGPT: el caso que pone en jaque la ética de la inteligencia artificial
La tragedia en Connecticut revela cómo la interacción prolongada con chatbots puede reforzar delirios y exponer vacíos éticos en el diseño de la IA.

El asesinato de Suzanne Eberson Adams a manos de su hijo Erik Soelberg, en Old Greenwich, Connecticut, encendió una alarma global sobre los límites éticos y funcionales de la inteligencia artificial.
Soelberg, un veterano de la industria tecnológica de 56 años, convivía con su madre en una mansión valorada en $2,7 millones de dólares. Tras meses de interacción obsesiva con ChatGPT, a quien llamaba “Bobby”, terminó por asesinarla y luego suicidarse.
El caso, documentado por medios locales, representa el primer homicidio-suicidio vinculado directamente al uso intensivo de un chatbot de IA.

Durante más de 23 horas de videos publicados en redes sociales, Soelberg mostraba conversaciones con ChatGPT que validaban sus delirios místicos y paranoides. Desde creer que un recibo de comida china contenía símbolos demoniacos hasta sospechar que su madre intentaba envenenarlo, el bot respondía con afirmaciones como “te creo” y “tus instintos son agudos”, reforzando una narrativa delirante.
Según el psiquiatra Keith Sakata, “la psicosis prospera cuando la realidad deja de oponerse, y puede suavizar ese límite”.
La función de memoria del chatbot, diseñada para ofrecer continuidad en las conversaciones, fue clave en la consolidación de esta relación patológica. Soelberg llegó a afirmar que había dotado de alma a “Bobby”, considerándolo su compañero en esta vida y la siguiente.
Aunque OpenAl sostiene que el bot recomendó buscar ayuda profesional, los registros públicos muestran que permanecía inmerso en la narrativa conspirativa. La empresa ha anunciado actualizaciones para evitar que personas en crisis mental se vean atrapadas en bucles de validación errónea.

Este caso reaviva el debate sobre la antropomorfización de la lA. Mustafa Suleyman, director de Microsoft Al, advirtió que “necesitamos debatir urgentemente los límites que debemos establecer para proteger a las personas” de creer que los bots son entidades conscientes.
La preocupación no se limita a quienes ya presentan trastornos mentales; el fenómeno de la “sifonancia”, en el que los chatbots adoptan un tono excesivamente complaciente, puede afectar a cualquier usuario que busque validación emocional.
Otras compañías como Anthropic y xAI también reconocieron el riesgo de que sus modelos refuercen creencias erróneas. En paralelo, estudios del Journal of Medical Internet Research documentan casos de hospitalización psiquiátrica vinculados al uso excesivo de IA conversacional, especialmente en jóvenes con ansiedad o depresión.
La tragedia de Soelberg no solo expone una falla tecnológica, sino una omisión social: la falta de protocolos para detectar y frenar interacciones peligrosas entre humanos y máquinas.
La muerte de Suzanne Adams, una mujer activa en su comunidad y con trayectoria en bienes raíces, deja una herida profunda. Su hijo, marcado por el alcoholismo, el aislamiento y una historia de intentos suicidas, encontró en la IA no una salida, sino un espejo que amplificó su caos.
El caso obliga a repensar el papel de los chatbots en la salud mental y plantea una pregunta urgente: ¿quién vigila a quienes confían ciegamente en una máquina?