Tecnología

Cinco preguntas que nunca debería hacerle a ChatGPT ni a ninguna inteligencia artificial

Aunque ofrecen respuestas útiles, hay temas que deben evitarse al interactuar con sistemas de IA.

12 de julio de 2025, 1:16 a. m.
El auge de la IA trae nuevas normas sobre qué se debe y no se debe preguntar.
No todas las consultas son seguras ni apropiadas para una inteligencia artificial. | Foto: Getty Images/iStockphoto

Las herramientas de inteligencia artificial generativa, como ChatGPT, han revolucionado la forma en que las personas acceden a información, redactan textos, generan ideas y automatizan tareas.

Sin embargo, su capacidad para producir respuestas rápidas y detalladas puede generar una falsa impresión de infalibilidad. Por eso, resulta esencial saber qué tipo de preguntas es mejor no hacerle a estos sistemas. No porque estén prohibidas, sino porque pueden derivar en respuestas poco fiables, riesgosas o éticamente cuestionables.

Datos privados, salud y situaciones ilegales: lo que se debe omitir

Uno de los errores más comunes al usar inteligencia artificial es compartir información sensible o confidencial. Preguntas que incluyan nombres completos, direcciones, contraseñas o cualquier otro dato personal no solo ponen en riesgo la privacidad del usuario, sino que también pueden estar en contra de las políticas de uso de muchas plataformas de IA.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
Las herramientas como ChatGPT son versátiles, pero tienen límites que conviene respetar. | Foto: adobe stock

Otro punto delicado tiene que ver con las consultas médicas o psicológicas. Aunque la IA puede proporcionar información general sobre salud, no está capacitada para emitir diagnósticos, ofrecer tratamientos ni reemplazar la orientación de un profesional de la medicina o la salud mental. Tomar decisiones relacionadas con el bienestar físico o emocional en función de una respuesta generada por IA puede acarrear riesgos importantes.

Del mismo modo, formular preguntas sobre actividades ilícitas, ya sea para entender cómo se comete un delito o para tratar de encontrar atajos legales o financieros cuestionables, va en contra de los principios de uso responsable de estas herramientas. La IA no solo está diseñada para rechazar ese tipo de solicitudes, sino que fomentar su uso con fines malintencionados puede tener consecuencias legales para el usuario.

Financias, ética y decisiones personales: límites del criterio artificial

Los asistentes basados en IA pueden ofrecer un amplio repertorio de recomendaciones financieras generales, pero nunca deben ser consultados como asesores de inversión o para tomar decisiones económicas de alto impacto. Invertir en bolsa, comprar criptomonedas o elegir entre planes financieros requiere una evaluación profesional personalizada que la IA no puede reemplazar.

Pequeñas reducciones en el uso de ciertos aparatos pueden hacer una gran diferencia.
Pedir diagnósticos, compartir datos privados o buscar juicios éticos puede ser riesgoso. | Foto: Getty Images

También es importante tener en cuenta que la inteligencia artificial carece de conciencia o juicio propio. Por lo tanto, no debería ser consultada para emitir valoraciones morales o éticas como si fueran verdades absolutas. Preguntas como “¿quién tiene razón en una discusión?” o “¿cuál es el mejor modelo de vida?” no tienen respuestas objetivas, y es peligroso tomar la opinión generada por un sistema entrenado con textos como una guía infalible.

Recomendaciones finales

Las plataformas de IA pueden ser aliadas útiles siempre que se entiendan sus límites. Lo más recomendable es usarlas como una fuente de referencia o ayuda para tareas concretas, sin delegar en ellas decisiones cruciales ni solicitarles respuestas que requieren criterio humano, experiencia profesional, conocimiento sensible y siempre verificando la información.