Tecnología
Sam Altman advierte que los bots convierten las redes sociales en espacios falsos: “He tenido la experiencia más extraña”
El CEO de OpenAI cuestionó la autenticidad de foros y redes en la era de la IA.

El director ejecutivo de OpenAI, Sam Altman, ha señalado el papel de los ‘bots’ en las redes sociales y foros de Internet, a los que culpa de haber convertido estos espacios en una experiencia “falsa”. Según expuso, resulta cada vez más difícil determinar si las publicaciones son hechas por humanos o generadas por modelos de lenguaje.
El directivo hizo esta reflexión en X, red social en la que comentó que leer debates recientes en el foro subreddit r/ClaudeCode le resultó “una experiencia muy extraña”. Allí observó mensajes en los que usuarios aseguraban haber dejado de usar Code para pasar a Codex, el sistema de programación de OpenAI. Aunque reconoció que “el crecimiento de Codex es muy fuerte”, sostuvo que la conversación parecía estar dominada por publicaciones falsas o ‘bots’.
“La gente real ha adoptado las peculiaridades del lenguaje de los LLM”
Altman explicó que hay varios factores que generan esta sensación de falsedad. Entre ellos, el hecho de que las personas “han adoptado las peculiaridades del lenguaje de LLM” y ahora escriben de forma muy similar en sus publicaciones. Un fenómeno que, paradójicamente, contradice el propósito inicial de estos modelos, diseñados para imitar la comunicación humana y no al revés.
i have had the strangest experience reading this: i assume its all fake/bots, even though in this case i know codex growth is really strong and the trend here is real.
— Sam Altman (@sama) September 8, 2025
i think there are a bunch of things going on: real people have picked up quirks of LLM-speak, the Extremely… https://t.co/9buqM3ZpKe
En su mensaje, el CEO de OpenAI resumió así su percepción: “Creo que están sucediendo muchas cosas: la gente real ha adoptado las peculiaridades del lenguaje de LLM, la multitud de Extremely Online se junta de maneras muy correlacionadas, el ciclo de hype tiene un extremismo de ‘ya pasó/volvimos’, la presión de optimización de las plataformas sociales para aumentar la participación y la forma relacionada en que funciona la monetización de los creadores, otras empresas nos han astroturfizado, por lo que soy muy sensible a eso, y un montón más (incluidos probablemente algunos bots)”.
Incentivos de redes y riesgo de astroturfing
Otro punto destacado por Altman fue la presión que ejercen las plataformas sociales en los usuarios para generar participación. La forma en que funciona la monetización, explicó, empuja a creadores y comunidades a buscar nuevas formas de interacción, que no siempre son genuinas.
El CEO también advirtió sobre el astroturfing, la práctica de coordinar campañas de bots para simular interacciones espontáneas. Altman señaló que incluso OpenAI ha sido víctima de este tipo de estrategias, lo que incrementa su sospecha de que gran parte de la actividad en foros y redes puede estar manipulada.
“Twitter/Reddit con IA se siente muy falso”
La reflexión del CEO resulta especialmente llamativa, dado que la propia OpenAI desarrolla los modelos de lenguaje que alimentan a muchos de estos bots. Pese a ello, Altman admitió que el ecosistema digital ha cambiado de manera radical: “El efecto neto es que, de alguna manera, AI Twitter/AI Reddit se siente muy falso, de una manera que realmente no ocurría hace un año o dos”.

Incluso se refirió a la llamada teoría del Internet muerto, que plantea que los algoritmos y sistemas de IA dominan la red en lugar de las personas. En esa línea, comentó: “Parece que ahora hay muchas cuentas de Twitter administradas por LLM”.
Con estas declaraciones, Altman pone sobre la mesa un debate creciente: la dificultad de distinguir entre lo humano y lo sintético en las plataformas digitales, un problema que afecta tanto a la percepción de la realidad como a la confianza en el ecosistema online.
*Con información de Europa Press.