Tecnología
Los riesgos de no verificar la información y compartir datos sensibles en sus chats, cuando se confía demasiado en la IA
La inteligencia artificial puede ser inducida o manipulada mediante ciertas técnicas para entregar información engañosa o incluso perjudicial para la persona que la consulta.

Con los avances tecnológicos, la inteligencia artificial (IA) se ha convertido en un componente esencial en la vida cotidiana, ya sea como una fuente inmediata de información o como un apoyo clave para optimizar tareas relacionadas con el trabajo y los estudios.
Sin embargo, cuando se emplea de manera imprudente o sin las precauciones necesarias, puede abrir la puerta a riesgos que comprometen la seguridad de los usuarios, desde la exposición de datos personales hasta la manipulación de información sensible.
De acuerdo con una encuesta realizada en América Latina, compartida por el sitio web de la empresa de ciberseguridad ESET, Weivesecurity.com, se recolectaron datos para obtener una visión amplia y representativa sobre los hábitos de uso de la IA en distintos contextos.

“El 80% de los encuestados usa la IA, pero más de la mitad no chequea la información obtenida”, señala el informe, que además evidencia cuáles son las medidas de seguridad que las personas deberían adoptar para proteger sus datos y su privacidad al hacer uso de la inteligencia artificial.
Dentro de los hallazgos más relevantes de la encuesta es que el 80% de los consultados afirmó utilizar herramientas de Inteligencia Artificial: un 45% lo hace con frecuencia y un 35% de manera esporádica. Sin embargo, la preocupación surge al analizar la forma en que validan la información obtenida.
El 55% de los encuestados reconoció que no siempre verifica los datos entregados por la IA; de ellos, un 14% admitió que nunca lo hace y un 39% que solo lo corrobora en algunas ocasiones. Esta falta de verificación representa un riesgo considerable para los usuarios.
La razón es clara: aunque los modelos de IA pueden ofrecer respuestas útiles y precisas, no están libres de errores ni de sesgos. En áreas delicadas como el ámbito legal, financiero o de la salud, basarse únicamente en estas respuestas sin contrastarlas con fuentes oficiales podría llevar a decisiones equivocadas.
A esto se suma que estas tecnologías pueden ser vulnerables a intentos de manipulación mediante técnicas como el prompt injection, en las que un atacante introduce instrucciones maliciosas para alterar las respuestas. En un escenario así, la IA podría ser inducida a proporcionar datos engañosos o incluso perjudiciales para quien la consulta.
Una de las recomendaciones más importantes al utilizar herramientas de inteligencia artificial, según expertos, es evitar ingresar información privada o sensible. Datos como contraseñas, números de cuenta bancaria o información confidencial no deberían compartirse en ningún chat con IA.

La razón podría ser por los sistemas que procesan los datos proporcionados y, en algunos casos, pueden utilizarlos para entrenar futuros modelos. Esto incrementa la posibilidad de que queden almacenados y, eventualmente, se expongan de forma no deseada.
Más allá de no compartir datos personales o laborales, resulta esencial conocer a fondo las configuraciones de privacidad de cada aplicación. Comprender qué información se guarda, si existe intercambio con terceros y cómo podría usarse en el futuro es clave para reducir riesgos. Un buen hábito es revisar de manera periódica los términos y condiciones del servicio, ya que con frecuencia se actualizan para incluir nuevas opciones de seguridad y privacidad que los usuarios deben aprovechar.