Tecnología

Inteligencia artificial pondrá en jaque a los que usan redes sociales para insultar a futbolistas y celebridades

La Fifa ya ha identificado a 300 individuos responsables de ciberacoso durante el Mundial.

22 de junio de 2023
La inteligencia artificial causa temor en el mundo.
La inteligencia artificial será el principal enemigo de quienes cometen ciberacoso en redes sociales. | Foto: Getty Images

Un estudio independiente que empleó inteligencia artificial para rastrear casos de ciberacoso a los jugadores que disputaron la Copa Mundial de fútbol en 2022 logró identificar a más de 300 individuos cuya información fue remitida a las autoridades, informó el domingo la Fifa.

El estudio analizó más de 20 millones de publicaciones y comentarios en Facebook, Instagram, TikTok, Twitter y YouTube durante el Mundial, logrando confirmar “el carácter ofensivo, discriminatorio o amenazante de 19.636 publicaciones y comentarios”, dijo la Fifa en un informe que detalló las medidas que tomó para proteger a los futbolistas y árbitros durante el torneo en Catar.

La mayor cantidad de mensajes de odio se registró en el partido de cuartos de final entre Inglaterra y Francia, según el proyecto que fue concebido conjuntamente por la Fifa y el sindicato internacional de futbolistas (FIFPRO).

La inteligencia artificial está potenciando otras tecnologías.
La inteligencia artificial está potenciando otras tecnologías. | Foto: Getty Images

El proyecto empleó inteligencia artificial, con dos capas adicionales de análisis humano, para detectar comentarios de odio.

“Los mensajes de violencia y amenazas alcanzaron ribetes más extremos a medida que transcurrió el torneo, agudizándose las referencias a las familias de los jugadores, y más amenazas al volver a un país en particular, ya sea el país que representaron o donde juegan”, consignó el informe.

El 38 % de los mensajes identificados como de odio procedió de cuentas de Europa y el 36 % de Sudamérica. Más de 13.000 de los mensajes fueron reportados a Twitter.

“Las cifras y hallazgos en este informe no sorprenden a nadie, pero no dejan de enormemente preocupantes”, dijo David Aganzo, el presidente de la FIFPRO.

Las selecciones y los jugadores recibieron un software de moderación que permitió interceptar 286.000 mensajes abusivos antes de ser leídos por el destinatario o los seguidores.

Mantener el computador prendido durante la noche puede tener algunos efectos negativos.
La IA permite lograr un análisis de datos más ágil y profundo. | Foto: Getty Images

Se indicó que los datos de más 300 personas responsables de las publicaciones y comentarios ofensivos, discriminatorios o amenazantes durante el campeonato “serán remitidos a las correspondientes federaciones miembro y autoridades judiciales para garantizar que se tomen medidas concretas contra ellas”, según la Fifa.

“La discriminación es un acto delictivo. Con la ayuda de esta herramienta, identificamos a los autores y los denunciamos ante las autoridades para que sean castigados por sus actos”, dijo Gianni Infantino, el presidente de la Fifa, en un comunicado.

“También esperamos que las plataformas de redes sociales acepten sus responsabilidades y nos apoyen en la lucha contra todas las formas de discriminación”, agregó.

La Fifa y FIFPRO expandirán el sistema de detección de mensajes ofensivos durante la Copa Mundial femenina que arrancará el próximo mes en Australia y Nueva Zelanda.

Meta dice tener una inteligencia artificial que podría ser un riesgo para la humanidad si es revelada

Recientemente, se ha conocido uno de los planes secretos de Meta —compañía de Mark Zuckerberg—que podría cambiar para siempre la concepción que se tiene sobre las herramientas de inteligencia artificial generativa con servicios de voz.

Según la propia compañía, no se atreven a ponerla a disposición del público porque consideran que puede tener riesgos potenciales de caer en manos equivocadas.

Facebook meta
Meta está trabajando para tener un lugar destacado con el uso de la inteligencia artificial | Foto: REUTERS

“Hay muchos casos de uso emocionantes para los modelos generativos que hablan, pero precisamente por el potencial de usos malintencionados no vamos a lanzar Voicemodel: ni el modelo ni el código (...). Creemos que es importante ser transparentes con la comunidad de la IA y compartir nuestras investigaciones para avanzar en su estado del arte, pero también es importante mantener el equilibrio justo entre esa apertura y la responsabilidad”, indicó la empresa en su comunicado interno.

Según se conoció, las personas ciegas que utilicen esta herramienta podrían leer mensajes gracias a diferentes asistentes que se podrían configurar con las voces de amigos; además, esta permitiría escuchar la propia voz, pero en otros idiomas.

Aunque es un proyecto privado de Meta, se sabe que hay algunos desarrolladores que han podido acceder a él para poder, bajo la supervisión de la compañía, saber hasta donde pueden llegar quienes manipulen el código de su producto.

Con información de AP