Tecnología
Expertos enseñan como identificar si un video fue hecho con IA, para prevenir estafas: “todo está en los ojos”
Expertos aseguran que los reflejos en los ojos pueden ayudar a detectar videos manipulados por IA.
![Los usuarios están expuestos a ser víctimas de estafas en internet.](https://www.semana.com/resizer/v2/YIXDHIKUKZFHLD3GQVMO25OBIA.jpg?auth=87c383f71b8ee7d07284e861fa26c1badd2e4f00efbf56f89580576c0c2f1e56&smart=true&quality=75&width=1280&height=720)
Con el aumento de las tecnologías basadas en Inteligencia Artificial (IA), se han generado nuevas preocupaciones sobre cómo estas herramientas pueden ser utilizadas para manipular imágenes, videos y audios con fines fraudulentos.
En particular, los videos manipulados, conocidos como deepfakes, pueden colocar a las personas en situaciones comprometedoras, pidiendo dinero o información personal.
Las autoridades como la Secretaría de Hacienda y Crédito Público (SHCP) y la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) han emitido alertas para que los usuarios estén alerta ante estos fraudes. Pero, ¿cómo identificar si un video es genuino o manipulado?
“Todo está en los ojos”: Un método para detectar falsificaciones
Un estudio reciente de la Universidad de Hull en el Reino Unido, citado por el Foro Económico Mundial, ofrece una nueva pista clave para detectar falsificaciones generadas por IA: los ojos.
Lo más leído
Según la investigación, el reflejo en los ojos de una persona puede ser un indicador confiable de si una imagen o video es real o manipulado.
La investigación sugiere que, si los reflejos de ambos ojos coinciden, es probable que estemos ante una imagen auténtica. Sin embargo, si los reflejos son inconsistentes o no coinciden, es probable que se trate de una falsificación.
![Tal como señalan las marcas verde y roja en la parte superior derecha.](https://www.semana.com/resizer/v2/VNEV676GJFHS7PTQUCIK6X2HG4.jpg?auth=bbfe64163ad54fa475f697e5991efcc3453d7da56079dccae6f6670b3ffdb123&smart=true&quality=75&width=1280&fitfill=false)
Este hallazgo ha sido comparado por algunos expertos con la forma en que los astrónomos estudian las imágenes de las galaxias, un campo en el que la observación precisa de detalles visuales es esencial.
Kevin Pimbblet, profesor de astrofísica de la Universidad de Hull, explica que, en los casos de deepfakes, “los reflejos en los globos oculares son consistentes para una persona real, pero incorrectos desde el punto de vista físico para una persona falsa”.
Este fenómeno ofrece una forma eficaz de identificar videos manipulados con IA, ya que los algoritmos de inteligencia artificial suelen tener dificultades para replicar los detalles de los reflejos oculares de manera precisa.
¿Qué más hay que observar en los videos manipulados?
Además de observar los ojos, existen otros detalles clave a los que se debe prestar atención para identificar un deepfake de manera efectiva. El Foro Económico Mundial destaca que algunos de los elementos que pueden delatar una falsificación incluyen:
- Parpadeo y movimientos de labios: Un signo claro de manipulación es cuando el parpadeo de los ojos o los movimientos de los labios no siguen un ritmo natural o están desincronizados con el resto de la acción en el video.
- Reflejos en los ojos y lentes: Los reflejos en los ojos y en los lentes de las personas pueden ser inconsistentes o parecer fuera de lugar en los deepfakes. Este es otro indicio importante de que el video no es auténtico.
- Desajuste en la edad: En algunos casos, los deepfakes pueden mostrar una persona que tiene una apariencia más joven o mayor en comparación con el contexto de su piel, cabello y ojos, lo que indica que la imagen podría haber sido manipulada.
Cómo identificar un audio manipulado por IA
Aunque los deepfakes son más conocidos en el ámbito visual, los audios manipulados también pueden generar confusión. Para identificar estos fraudes sonoros, el Foro Económico Mundial recomienda prestar atención a los siguientes detalles:
![Audio del celular.](https://www.semana.com/resizer/v2/6E7VFTNSIJFBBKLKXYF6FRPQN4.jpg?auth=f061c4931446e695c9b2cbe5c7c16566bc0a93e9a250df33099b10832df05c24&smart=true&quality=75&width=1280&fitfill=false)
- Nitidez de la Voz: Si la voz parece demasiado clara o perfecta, podría ser un indicio de que ha sido generada por una IA.
- Entonación: Las IAs a menudo tienen dificultades para replicar emociones y matices de entonación, lo que puede generar un audio que suena demasiado robótico o plano.
- Sincronización Labial (en videos con audio): La falta de sincronización entre el movimiento de los labios y el sonido del audio es otra señal de que un video puede haber sido manipulado.
- Contexto del Discurso y Emociones: Prestar atención al contexto del discurso y las emociones que transmite la voz es crucial. Si el tono o el ritmo del habla no coinciden con el contexto visual, es probable que el audio haya sido generado artificialmente.
Prevención y concientización: Cómo protegerse de las estafas con IA
Dado que los deepfakes pueden ser utilizados para estafas, especialmente en situaciones de urgencia, las autoridades recomiendan estar alerta y no compartir información sensible con desconocidos o a través de canales no verificados.
La SHCP y la Condusef insisten en que las personas estén especialmente atentas a los mensajes de texto, correos electrónicos o videos enviados por contactos que podrían haber sido manipulados.
Es fundamental verificar siempre la autenticidad de las solicitudes, especialmente si involucran la entrega de dinero o datos personales.