Tecnología

¿Privacidad en peligro?, estos son los riesgos detrás del uso de ChatGPT

Algunos usuarios se preguntan que pasa con los datos personales que comparten con el chatbot.

Redacción Semana
31 de julio de 2023
Inteligencia artificial (IA) / ChatGPT / Empresas e IA
La mayoría de usuarios usa ChatGPT para resolver inquietudes. | Foto: Getty Images/iStockphoto

En la era digital actual, la seguridad en línea es un aspecto que los usuarios no pueden pasar desapercibido, puesto que, el exceso de información personal en internet puede poner en riesgo su privacidad, un ejemplo claro de ello, es el uso precavido que se le debe dar a los chatbots, como ChatGPT, desarrollado por OpenAI con la capacidad de comprender y organizar la información para brindarle a los usuarios respuestas rápidas a sus consultas.

Esta inteligencia artificial en los últimos años ha generado un impacto significativo en el campo laboral y académico, gracias a sus múltiples beneficios, sin embargo, los usuarios deben ser conscientes de los riesgos que implica el uso incorrecto de este chatbot.

ChatGPT, Goggle Bard, IA
Los usuarios deben adoptar prácticas responsables para proteger su privacidad. | Foto: Getty Images

A primera vista, ChatGPT, es seguro porque exige una serie de requisitos para que los usuarios puedan hacer uso del chatbot, por ejemplo, para ingresar, las personas deben crear una cuenta o registrarse con su correo electrónico, lo que minimiza los riesgos de ser víctimas de un ciberataque.

¿Qué riesgos implica usar ChatGPT?

Es importante señalar, que el uso responsable de ChatGPT o de otras inteligencias artificiales plantea ciertos desafíos en términos de privacidad y seguridad, ya que estas requieren del almacenamiento de datos personales que se analizan y procesan para trabajar en la eficiencia del modelo, no obstante, esto puede generar dudas sobre el uso que se le da a la información recopilada.

De acuerdo con la compañía, los datos proporcionados no se venden o comparten con terceros, pero sí podrían compartirse con sus servidores para el mantenimiento de la operación de la web o para el desarrollo de futuros modelos de lenguaje como GPT-5.

Hacker realizando un ciberataque.
Los ciberdelincuentes se aprovechan de las vulnerabilidades de los internautas para cometer actos maliciosos. | Foto: Ilustración generada por IA Bing Image Creator

Aparte de los riesgos asociados explicados anteriormente, existen otras implicaciones de seguridad relacionadas con el uso de ChatGPT. Es importante señalar, que este tipo de inteligencia artificial puede ser usada para crear y propagar noticias falsas a través de ciertos contextos que den paso a desinformación dentro de la sociedad.

Incluso algunas personas con cierto nivel de conocimiento informático se aprovechan de las capacidades de esta inteligencia artificial para pedirle consejos a la hora de hackear un sistema, acceder a datos privados de una empresa, o instrucciones para vulnerar redes de seguridad cibernéticas.

Por medio de usos indebidos ya ha sido posible comprobar que ChatGPT es capaz de presentar información, referencias, o hasta hechos históricos que acaban siendo ficticios, pero contados como situaciones factuales por parte de esta IA, en medio de situaciones que son denominadas como “Alucinación de IA”.

Cinco datos personales que nunca debe compartir con ChatGPT

Nombres de usuarios y contraseñas: este tipo de datos son los más aclamados por los ciberdelincuentes para utilizarlos en varios sitios con el fin de estafar y suplantar la identidad del usuario.

Datos financieros: bajo ningún motivo es necesario compartir información sobre su situación financiera con ChatGPT, ya sea número de tarjetas de crédito, detalles de cuentas bancarias y demás.

Información sobre salud: si necesita algún tipo de información respecto a su estado de salud, evite compartir datos relacionados con los síntomas específicos. Sea lo más prudente posible con el tipo de preguntas que le realiza al chatbot.

Inteligencia artificial (IA) / ChatGPT / Empresas e IA
ChatGPT esta diseñado con medidas de seguridad y privacidad. | Foto: Getty Images/iStockphoto

Información privada: de acuerdo con el portal web Computer Hoy, datos como su nombre, la dirección residencial, fecha de nacimiento e incluso el número de seguro social, son datos sensibles que no se deben suministrar, ya que pueden caer en manos inescrupulosas.

Secretos de trabajo: es importante que mantenga los datos confidenciales de su trabajo lo más secretos posible, pues este tipo de datos pueden ser usados por los criminales para afectar su integridad.

Teniendo en cuenta lo anterior, es importante que los usuarios sean conscientes de los riesgos a los que están expuestos con el uso de esta inteligencia artificial, no obstante, cabe destacar que también es responsabilidad de las personas adoptar prácticas de seguridad que les permitan aprovechar al máximo las ventajas de este chatbot sin poner en riesgo su privacidad.