Qué no preguntarle a ChatGPT; Chatear con una inteligencia artificial puede parecer una experiencia mágica y revolucionaria, ya que la tecnología que hay detrás de ChatGPT responde con rapidez, entiende contextos complejos e incluso escribe textos enteros.
Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias. En este contexto, ESET, compañía líder en detección proactiva de amenazas, advierte que hay ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas.
El equipo de especialistas comenta que saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino también una forma de utilizar esta poderosa herramienta de manera más eficaz. Más aún al considerar que, según encuestas, las preguntas más comúnmente utilizadas con las IA son sobre temas personales relevantes: ¿Cómo puedo mejorar mi salud mental? ¿Qué método es más efectivo para perder peso? ¿Cómo puedo empezar un negocio exitoso?
“Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.
Estas son, según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el porqué:
Preguntas relacionadas con información confidencial o sensible
En el mundo de la ciberseguridad, la regla es clara: nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una inteligencia artificial. A pesar de parecer una interacción privada, las herramientas de IA, desde ESET destacan, no son entornos cifrados o seguros para compartir datos.
Esto significa que al compartir información sensible con la IA, se están poniendo esos datos en riesgo. Los ciberdelincuentes ya están comerciando en foros de la dark web cuentas de ChatGPT robadas, lo que es una clara señal del interés que despierta el robo de estas cuentas.
Preguntas relacionadas con datos confidenciales o de propiedad de la empresa
Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.
(También le puede interesar: Diálogos del Minambiente en Santurbán)
Además, cuando se hagan preguntas relacionadas con los datos o la información de una empresa, es importante recordar que las plataformas de IA no son entornos autorizados para tratar estos temas. Para garantizar la protección de los datos corporativos y cumplir con las políticas internas de seguridad, es preferible acudir siempre a herramientas autorizadas por cada organización.
Preguntas que esperan un asesoramiento médico, legal o financiero definitivo
Además de los temas de seguridad, también es importante destacar la veracidad de la información y el uso responsable de las respuestas generadas por ChatGPT.
Aunque las IA pueden ayudar a aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen a profesionales cualificados. Buscar un diagnóstico médico, asesoramiento jurídico o decidir sobre inversiones basándose únicamente en ChatGPT es como buscar síntomas en Google: podrías terminar creyendo que un dolor de cabeza es algo grave.
La IA puede carecer de contexto y no ofrecer una evaluación personalizada y responsable, lo que es crucial en estos ámbitos. Para decisiones importantes, busca el consejo de un médico, abogado o asesor financiero.
Preguntas que requieren opiniones, preferencias o sentimientos humanos
Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones ni opiniones reales. Las respuestas se basan en algoritmos y patrones de datos, no en experiencias personales. Preguntas como “¿Qué harías?” o “¿Te gusto?” generarán respuestas simuladas, sin ningún sentimiento genuino detrás.
Recuerda que la IA no tiene la capacidad de sentir ni de formar opiniones propias. Para un consejo genuino o una respuesta empática, es mejor hablar con una persona real.
Preguntas sobre decisiones personales importantes
La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para decisiones sobre la vida personal, la carrera profesional o el bienestar emocional. Estos temas requieren una comprensión más profunda y humana.
Por eso, ante decisiones significativas, como cambios de carrera o cuestiones familiares complejas, es fundamental buscar la orientación de mentores, terapeutas o consejeros de confianza, que puedan interpretar los matices emocionales y personales de la situación.
“Al interactuar con herramientas como ChatGPT, es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Usar la IA como herramienta complementaria, y no como fuente definitiva, contribuye a tomar decisiones más informadas y seguras”, concluye Gutiérrez Amaya, de ESET.
(Colprensa)