Tecnología
Wikipedia, en riesgo de colapso digital: los bots de IA ya generan la mayoría del tráfico
La Fundación Wikimedia advierte que los bots están saturando su infraestructura.

El tráfico vinculado a las descargas de contenido desde Wikimedia Commons ha experimentado un notable incremento del 50 % en el último año.
Este aumento sostenido, según la propia Fundación Wikimedia, no se debe al interés humano, sino a la creciente actividad de programas automatizados que extraen grandes volúmenes de datos para entrenar modelos de inteligencia artificial (IA).
Wikimedia Commons, el repositorio multimedia de dominio público de la fundación, alberga más de 144 millones de archivos, entre imágenes, videos y otros recursos.
Todo este material puede ser utilizado libremente y modificado, siempre que se cite correctamente al autor, una libertad que ha atraído no solo a usuarios convencionales, sino a los sistemas automatizados conocidos como bots.
Lo más leído
Desde enero de 2024, la demanda de estos contenidos se ha disparado, registrando picos inusuales en momentos clave como las elecciones presidenciales en Estados Unidos o la muerte del expresidente Jimmy Carter.
Aunque la infraestructura de Wikimedia está diseñada para soportar incrementos temporales de tráfico, el flujo continuo de descargas ha empezado a generar lentitud y afectaciones en el servicio.
Los bots superan a los humanos: un 65 % del tráfico
La Fundación Wikimedia ha encendido las alarmas al identificar que los bots dedicados a recolectar información para el entrenamiento de IA representan hoy el grueso del tráfico.

En una entrada reciente en su blog oficial, la organización denunció que “al menos el 65 % de este tráfico proviene de bots, una cantidad desproporcionada considerando que las visitas totales a la página causadas por bots representan aproximadamente el 35% del total”.
Estos programas no actúan como los usuarios humanos. Mientras una persona tiende a buscar archivos sobre temas específicos, los bots rastrean amplias porciones del repositorio, accediendo incluso a páginas poco visitadas.
Este patrón de navegación exige más a la red, ya que muchas de estas solicitudes deben ser atendidas por los centros de datos principales y no por los nodos de acceso cercanos.
Además de afectar el rendimiento, este comportamiento automatizado obliga a la fundación a destinar más tiempo y recursos a atender un tráfico que no responde a necesidades humanas, sino al apetito insaciable de los algoritmos.
Contenidos gratuitos, infraestructura costosa
Uno de los pilares de Wikimedia es ofrecer conocimiento libre y accesible para todos. Sin embargo, la creciente presión de los bots plantea nuevos retos económicos y éticos.
“Nuestro contenido es gratuito, pero nuestra infraestructura no”, ha recordado la fundación en su comunicado, haciendo énfasis en el desequilibrio que se está generando entre el acceso abierto y el coste operativo.

Ante este panorama, Wikimedia trabaja en nuevas estrategias para abordar esta situación, sin comprometer su compromiso con el conocimiento libre.
Mientras tanto, el uso intensivo por parte de desarrolladores de IA continúa alimentando un debate urgente: ¿cómo garantizar el acceso libre sin que se abuse de los recursos que lo sostienen?
El caso de Wikipedia puede ser apenas el comienzo de un conflicto mayor entre plataformas abiertas y tecnologías automatizadas en expansión.
*Con información de Europa Press.