Tecnología
Advierten que la inteligencia artificial podría ser usada para crear imágenes de abuso sexual infantil
Aseguran que se debe actuar inmediatamente para evitar serios problemas.
La ya alarmante proliferación de imágenes de abuso sexual infantil en internet podría empeorar si no se hace algo para controlar las herramientas de inteligencia artificial capaces de crear imágenes manipuladas, advirtió el martes un grupo experto en el tema.
Internet Watch Foundation, una agrupación basada en Reino Unido, exhortó a gobiernos y empresas tecnológicas a actuar rápidamente antes de que las imágenes de abuso sexual infantil sobrepasen las capacidades de las agencias policiales al ensanchar significativamente la cantidad de víctimas potenciales.
“No estamos hablando del daño que esto podría causar”, declaró Dan Sexton, director de tecnología de la agrupación. “Esto es algo que está ocurriendo ahora mismo y debe encararse ahora mismo”.
En Corea del Sur en septiembre, en un caso sin precedente, un hombre fue sentenciado a dos años y medio de cárcel por usar la inteligencia artificial para generar 360 imágenes de abuso sexual infantil, según el Tribunal del Distrito Busan, en el sudeste del país.
Tendencias
Hay casos incluso en que niños están usando esa tecnología en contra de otros niños. En una escuela en el sudoeste de España, la policía ha estado investigando un caso en que al parecer unos adolescentes usaron una aplicación de teléfono celular para crear imágenes en que sus compañeros vestidos aparecen desnudos.
El reporte expone un lado oscuro de la inteligencia artificial, una tecnología que permite al usuario describir en palabras lo que quiere producir —sea un correo electrónico, una novela, una obra de arte o un video— para que el sistema lo elabore.
Si no es detenido, el aluvión de “deepfakes” de abuso sexual infantil podría abrumar a las agencias policiales que tratan de rescatar a niños convertidos en personajes digitales ficticios. Los abusadores también podrían usar las imágenes para seducir o coaccionar a nuevas víctimas.
Sexton señaló que analistas de la IWF han descubierto rostros de niños famosos online y “una demanda masiva por la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.
“Están usando contenido real ya existente, y usándolo para crear nuevos contenidos de estas víctimas”, relató. “Esto es increíblemente asombroso”.
Sexton indicó que su organización, que combate en abuso sexual infantil en internet, empezó a recibir reportes de imágenes de abuso hechas con inteligencia artificial a comienzos de este año. Ello derivó en una investigación de fotos en la llamada “dark web”, una parte encriptada de la internet accesible solo mediante herramientas que proveen anonimato.
Los analistas de la IWF hallaron abusadores que compartían apuntes y se maravillaban de lo fácil que era convertir sus computadores personales en fábricas de imágenes sexualmente explícitas de niños de todas las edades. Algunos incluso intercambian las imágenes —que lucen sumamente reales— o tratan de lucrar con ellas.
Así opera My AI de Snapchat, el peligroso ‘chatbot’ que ofrece contenidos para adultos a los niños
Los chatbots se han convertido en una amenaza para los menores de edad, que son capaces de acceder y utilizar modelos como My AI de Snapchat para acceder a contenidos para adultos, puesto que no cuenta con los filtros necesarios para proteger la integridad de los más pequeños.
La inteligencia artificial (IA) generativa se ha integrado en todos los dispositivos (móviles, ordenadores, tabletas) y ámbitos, como el ocio o la educación. Esto ha hecho que niños de todas las edades y todos los lugares del mundo tengan acceso a los sistemas que emplean esta tecnología.
Aprender a través de la IA se ha vuelto algo cada vez más habitual, puesto que con ella es posible encontrar información útil escribiendo o pronunciando una sola frase, sin tener que leer una gran cantidad de páginas o artículos.
Esto ha hecho que algunas herramientas educativas integren sistemas como ChatGPT, un modelo que no dispone de un sistema de verificación de edad fiable y que, en ocasiones, registra respuestas inexactas, recopiladas de páginas de internet de dudosa credibilidad y sin contrastar, como explican desde la firma de seguridad Kaspersky.
Los menores también pueden verse en una situación de vulnerabilidad cuando utilizan un chatbot que, inicialmente, parece inofensivo, como es el caso de My AI. Los menores de hasta 13 años pueden usar esta herramienta de Snapchat sin consentimiento paterno y, desde dicha edad en adelante, la app recopila datos confidenciales tan importantes como el nombre, la dirección de correo electrónico o el número de teléfono, y puede llegar a compartirlos con terceros.
Así lo reconoce Snapchat en su página web, que matiza en su apartado de privacidad que reúne toda esta información para personalizar sus servicios, esto es, para sugerir amigos y “ayudar a los Snapchatters a encontrar a otras personas en Snapchat”, entre otras funciones.
Además de exponer los datos de los menores de edad, esta herramienta también ha demostrado ser accesible a todos los niveles y, con ello, ha puesto en evidencia sus carencias a la hora de filtrar el tipo de contenido que ofrece según a quien se dirigen.
Así lo pudo comprobar el periodista de The Washington Post Geoffrey A. Fowler, que evidenció que las respuestas de este ‘chatbot’ no eran apropiadas al hacerse pasar por un adolescente de 13 años. Además de ofrecer asesoramiento sobre cómo tener relaciones sexuales por primera vez con una persona mayor de edad, My AI le dio consejos para eliminar el olor a alcohol y a marihuana durante una fiesta adolescente.
Expertos de la firma de ciberseguridad Kaspersky han demostrado ahora que los menores de edad también pueden acceder a contenido para adultos sin necesidad de indicar su edad, lo que pone en evidencia la falta de medidas diseñadas para proteger la seguridad de los más pequeños.
No obstante, al igual que My AI carece de filtros para obtener respuestas de tipo sexual sin necesidad de verificación, otras aplicaciones como Boyfriend –diseñada para disfrutar de juegos de rol con contenido sexual– también ofrecen facilidades para su utilización, independientemente de la edad de los usuarios.
Esto sucede porque esta otra herramienta solo exige un correo electrónico para la creación de un perfil. Lo que, en definitiva, junto con el servicio de Snapchat, demuestra que los adultos deben estar alerta ante este tipo de vulnerabilidades.
*Con información de AP y Europa Press.