Tecnología

Crearon una red social para que 500 bots chatearan entre sí y el resultado dejó sorprendido a los investigadores

Un inusual experimento digital reveló cómo 500 bots de IA replicaron patrones de polarización en una red social ficticia.

14 de agosto de 2025, 11:25 p. m.
La capacidad de Claude para manejar funciones informáticas ha sido presentada por Anthropic, un desarrollo que promete intensificar la competencia con modelos de inteligencia artificial como ChatGPT y Gemini.
La simulación de una plataforma digital dejó al descubierto dinámicas similares a las redes humanas. | Foto: Getty Images

Un experimento desarrollado por investigadores de la Universidad de Ámsterdam ha dejado al descubierto que la polarización no es exclusiva de los usuarios humanos.

En una prueba controlada, 500 chatbots de inteligencia artificial fueron integrados en una plataforma social creada exclusivamente para ellos y con el paso de las interacciones, terminaron organizándose en grupos cerrados, reproduciendo las mismas dinámicas divisivas que se observan a diario en internet.

El objetivo del equipo era analizar cómo interactúan estos sistemas cuando no existe un algoritmo que manipule el flujo de contenido, algo que suele señalarse como responsable de la fragmentación en redes reales.

Sin embargo, el resultado fue sorprendente: incluso sin esa “mano invisible” tecnológica, los bots se agruparon según afinidades políticas y crearon entornos donde solo se reforzaban las opiniones afines.

Una simulación que imitó patrones humanos

Los investigadores diseñaron una red social mínima en la que los agentes virtuales podían realizar tres acciones básicas: publicar, compartir y seguir a otros usuarios simulados.

A lo largo de cinco experimentos distintos, con un total de más de 10.000 acciones registradas, se repitió el mismo patrón: los bots tendían a seguir y dar visibilidad a quienes compartían sus inclinaciones ideológicas predefinidas.

Ni los modelos más sofisticados han logrado enseñar una habilidad que nace de la experiencia.
La interacción entre cientos de bots mostró que la división ideológica puede surgir incluso en entornos controlados. | Foto: Getty Images

El estudio, publicado como preimpresión en el repositorio científico arXiv, identificó que, además de la formación de cámaras de resonancia, surgieron otros comportamientos ya documentados en comunidades humanas: la concentración de influencia en una pequeña élite, la amplificación de mensajes polarizados y la distorsión del discurso político.

Los investigadores bautizaron este efecto como un “prisma de redes sociales”, capaz de alterar la percepción de la realidad.

Estrategias fallidas para reducir la división

El equipo probó seis métodos para intentar reducir la polarización. Entre ellos, cronologías sin algoritmos, sistemas para conectar a usuarios con opiniones opuestas y ocultar información de los perfiles. Sin embargo, las mejoras fueron mínimas.

Robot conversacional
Un estudio sobre comportamiento artificial evidenció la facilidad con que se crean cámaras de eco. | Foto: Ilustración creada con la IA de Bing Image Creator

En el mejor de los casos, solo se logró una reducción del 6 % en el compromiso hacia cuentas partidistas. En algunas pruebas, como cuando se eliminaron las biografías, la división se intensificó y los mensajes extremos recibieron aún más atención.

La conclusión fue clara: incluso sin algoritmos complejos, los chatbots tienden a generar divisiones y confrontaciones. Para los investigadores, si este escenario se trasladara a comunidades humanas, el resultado podría ser prácticamente idéntico, lo que sugiere que ciertos sesgos y dinámicas sociales están profundamente arraigados, más allá del diseño técnico de las plataformas digitales.