Tecnología

IA en el trabajo: riesgos de suplantación y cómo proteger su identidad corporativa de los delincuentes

Según el MinTIC, en 2024 cerca de 250 mil personas fueron víctimas de fraudes tecnológicos.

10 de abril de 2025, 5:19 p. m.
Según el Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC), en 2024 cerca de 250 mil personas fueron víctimas de fraudes tecnológicos.
Según el Ministerio de Tecnologías de la Información y las Comunicaciones (MinTIC), en 2024 cerca de 250 mil personas fueron víctimas de fraudes tecnológicos. | Foto: Getty Images

Las herramientas de inteligencia artificial se han vuelto indispensables en los entornos laborales modernos, pero su implementación también ha abierto la puerta a nuevos riesgos de ciberseguridad. Al ser una tecnología utilizada de forma cotidiana en tareas como la redacción de informes, la automatización de correos electrónicos o el análisis de datos, se ha convertido en una aliada poderosa para la eficiencia empresarial.

Aunque estas aplicaciones muestran el lado más creativo y accesible de la IA, también evidencian lo fácil que es manipular contenido privado y cómo esta tecnología puede ser utilizada con fines malintencionados. Tan solo en 2024, 250 mil personas fueron víctimas de fraudes tecnológicos, según el MinTIC, y los intentos de fraude digital en todo el país han aumentado un 859 % en los últimos 3 años, según TransUnion.

De acuerdo con expertos y compañías de ciberseguridad, uno de los mayores riesgos actuales es el uso de la IA para fraudes y suplantaciones en entornos corporativos. Los ciberdelincuentes están aprovechando estas herramientas para crear contenidos falsos altamente convincentes, como voces clonadas y videos manipulados, con el objetivo de engañar a empleados y organizaciones.

Los cibercriminales solo necesitan un registro de su voz.
De maneras fáciles, podría estar dando lo que necesitan los cibercriminales para hacer de las suyas. | Foto: Getty Images

Un ejemplo alarmante es la clonación de voz, donde, con apenas unos segundos de audio, los estafadores pueden replicar la voz de una persona para realizar solicitudes falsas de transferencias bancarias o acceso a información sensible.

Frente a este panorama, es esencial que las empresas adopten medidas proactivas para protegerse y fortalecer sus protocolos internos de verificación. Implementar medidas como la autenticación de múltiples factores (MFA), verificar siempre por un segundo canal las solicitudes inusuales y mantener actualizados los filtros de seguridad son pasos fundamentales.

inteligencia artificial y analítica de datos, entre otras herramientas, son los grandes desarrollos que está aprovechando la industria de seguros en Colombia.
Los estafadores pueden replicar la voz de una persona para realizar solicitudes falsas de transferencias bancarias o acceso a información sensible. | Foto: Getty Images

Además, expertos como WeWork recomiendan adoptar un enfoque proactivo. Entre las medidas clave, destacan verificar siempre las solicitudes sensibles a través de múltiples canales, como llamadas directas; implementar protocolos de seguridad rigurosos, incluyendo autenticación multifactorial y procesos de aprobación en varios niveles; capacitar continuamente a los empleados para reconocer nuevas amenazas basadas en IA; utilizar herramientas especializadas de detección de fraudes, como análisis de comportamiento y autenticación biométrica; y, por último, mantener actualizados todos los sistemas de seguridad para cerrar posibles vulnerabilidades.

La inteligencia artificial ofrece innumerables beneficios en el ámbito laboral, pero su uso responsable y seguro requiere una vigilancia constante y la adopción de prácticas preventivas. Con un enfoque proactivo, las compañías pueden aprovechar todo el potencial de esta tecnología sin comprometer la seguridad de su información ni la de sus colaboradores.

Durante el 2023 y lo que va del 2024, de acuerdo con Computer Hoy, la clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han sido utilizadas.