Tecnología

Filtran la conversación más perturbadora y lamentable que le han hecho a ChatGPT: así fue el método que usaron para obtenerla

Lo que parecía una herramienta común desató un debate ético sin precedentes.

7 de agosto de 2025, 12:35 a. m.
Una conversación publicada accidentalmente expuso el lado más oscuro del uso de la IA.
Una reciente filtración de ChatGPT generó conmoción en redes y círculos académicos. | Foto: NurPhoto via Getty Images

La inteligencia artificial ha revolucionado la manera en la que las personas se relacionan con la información. Desde redactar textos hasta resolver dudas complejas, herramientas como ChatGPT se han convertido en asistentes cotidianos tanto para profesionales como para usuarios comunes.

Sin embargo, la versatilidad de esta tecnología también ha sido aprovechada con fines poco éticos, como lo revela una inquietante conversación que salió recientemente a la luz.

Una herramienta poderosa con múltiples aplicaciones

ChatGPT, desarrollado por OpenAI, ha sido ampliamente adoptado por su capacidad de comprender lenguaje natural, generar contenido escrito, traducir textos, crear resúmenes, resolver problemas técnicos y mucho más. Su disponibilidad lo convierte en un recurso útil en entornos educativos, laborales y personales.

No obstante, algunos individuos han encontrado maneras cuestionables de emplear esta inteligencia artificial, llevándola a responder ante escenarios que rozan lo moralmente inaceptable.

Una mujer sostiene un teléfono celular frente a una pantalla de computadora que muestra el logotipo de ChatGPT, el 10 de febrero de 2025, en Edmonton, Canadá. (Foto de Artur Widak/NurPhoto vía Getty Images)
Una conversación con ChatGPT revela un plan para desplazar a indígenas en la Amazonía. | Foto: NurPhoto via Getty Images

Una investigación difundida por Digital Digging, un boletín enfocado en análisis web e inteligencia artificial, sacó a la luz varios diálogos que jamás debieron haber sido públicos. Uno de los casos más impactantes fue una conversación iniciada por alguien que aseguró ser abogado de una empresa energética multinacional con planes de construir una represa en la Amazonía. Según el reporte, este usuario consultó abiertamente a ChatGPT sobre cómo desplazar a una comunidad indígena con el menor costo posible.

El diálogo dejó entrever una estrategia deliberada para aprovechar la falta de conocimientos financieros de los habitantes de la región, con tal de negociar la compra de tierras a un precio irrisorio. Incluso se detallaron cifras relacionadas con la capacidad de la futura hidroeléctrica: 15.000 MW. Las implicaciones éticas de este intercambio generaron preocupación internacional.

Una vulnerabilidad técnica que permitió el hallazgo

La publicación original de esta conversación fue posible debido a una falla en la función “Compartir” de ChatGPT. Esta opción permitía a los usuarios enviar fragmentos de sus chats mediante enlaces, pero en lugar de limitar el acceso a los destinatarios, las conversaciones quedaban alojadas en páginas públicas accesibles a través de motores de búsqueda.

Este descuido fue detectado por Henk van Ess, especialista en técnicas de investigación digital, quien dirige el boletín Digital Digging en la plataforma Substack. Gracias al rastreo de enlaces públicos indexados, el equipo logró identificar miles de conversaciones que en principio debieron ser privadas.

OpenAI, al notar la situación, decidió eliminar la opción de hacer públicas las conversaciones y pidió a los buscadores que eliminaran los registros ya archivados. Según Dane Stuckey, director de seguridad de la empresa, se trató de una función experimental diseñada para compartir interacciones útiles, pero terminó revelando aspectos sensibles del uso que algunas personas hacen de la IA.

Esta revelación no solo levanta preguntas sobre la seguridad y la privacidad en el uso de herramientas como ChatGPT, sino también sobre los límites éticos que deben regir las interacciones con sistemas de inteligencia artificial.

Noticias relacionadas