Tecnología
Crearon una red social para que 500 bots chatearan entre sí y el resultado dejó sorprendido a los investigadores
Un inusual experimento digital reveló cómo 500 bots de IA replicaron patrones de polarización en una red social ficticia.

Un experimento desarrollado por investigadores de la Universidad de Ámsterdam ha dejado al descubierto que la polarización no es exclusiva de los usuarios humanos.
En una prueba controlada, 500 chatbots de inteligencia artificial fueron integrados en una plataforma social creada exclusivamente para ellos y con el paso de las interacciones, terminaron organizándose en grupos cerrados, reproduciendo las mismas dinámicas divisivas que se observan a diario en internet.
El objetivo del equipo era analizar cómo interactúan estos sistemas cuando no existe un algoritmo que manipule el flujo de contenido, algo que suele señalarse como responsable de la fragmentación en redes reales.
Sin embargo, el resultado fue sorprendente: incluso sin esa “mano invisible” tecnológica, los bots se agruparon según afinidades políticas y crearon entornos donde solo se reforzaban las opiniones afines.
Lo más leído
Una simulación que imitó patrones humanos
Los investigadores diseñaron una red social mínima en la que los agentes virtuales podían realizar tres acciones básicas: publicar, compartir y seguir a otros usuarios simulados.
A lo largo de cinco experimentos distintos, con un total de más de 10.000 acciones registradas, se repitió el mismo patrón: los bots tendían a seguir y dar visibilidad a quienes compartían sus inclinaciones ideológicas predefinidas.

El estudio, publicado como preimpresión en el repositorio científico arXiv, identificó que, además de la formación de cámaras de resonancia, surgieron otros comportamientos ya documentados en comunidades humanas: la concentración de influencia en una pequeña élite, la amplificación de mensajes polarizados y la distorsión del discurso político.
Los investigadores bautizaron este efecto como un “prisma de redes sociales”, capaz de alterar la percepción de la realidad.
Estrategias fallidas para reducir la división
El equipo probó seis métodos para intentar reducir la polarización. Entre ellos, cronologías sin algoritmos, sistemas para conectar a usuarios con opiniones opuestas y ocultar información de los perfiles. Sin embargo, las mejoras fueron mínimas.

En el mejor de los casos, solo se logró una reducción del 6 % en el compromiso hacia cuentas partidistas. En algunas pruebas, como cuando se eliminaron las biografías, la división se intensificó y los mensajes extremos recibieron aún más atención.
La conclusión fue clara: incluso sin algoritmos complejos, los chatbots tienden a generar divisiones y confrontaciones. Para los investigadores, si este escenario se trasladara a comunidades humanas, el resultado podría ser prácticamente idéntico, lo que sugiere que ciertos sesgos y dinámicas sociales están profundamente arraigados, más allá del diseño técnico de las plataformas digitales.