
Todos sabemos que cada vez que buscas algo en internet dejas un rastro. En redes sociales, ese rastro son los “me gusta”, los comentarios y las fotos que subes. En estos tipos de buscadores, la IA ya está impregnada, y tu información en la era de la inteligencia artificial contribuye a la construcción de tu perfil digital. Ahora hay un nuevo rey del espionaje involuntario, y para no entrar en tecnicismos: tus propios prompts. Sí, esas preguntas inocentes que haces a modelos de IA como ChatGPT, Claude o Gemini pueden saber más sobre ti que tu propia familia.
En los prompts de los grandes modelos de lenguaje revelas mucho más: desde tus dudas existenciales hasta tus tendencias políticas, pasando por tu ansiedad laboral y el misterio de por qué tu planta sigue muriendo a pesar de todos tus cuidados.
Tu mamá te conoce de toda la vida, conoce tus gustos, tus miedos y tus manías. La IA te conoce por tus preguntas, analiza lo que te preocupa, tus intereses y tus dudas.
¿Por qué este nuevo sistema de “espionaje” es importante?
Imagina que cada vez que buscas algo en internet dejas un rastro. En redes sociales, ese rastro son los “me gusta” como mencioné, los comentarios y las fotos que subes. Pero las conversaciones con la IA son como un diario personal que le dejas leer a un robot muy inteligente. La diferencia es que la información de las redes sociales podría considerarse superficial: te ven en fotos bonitas, con amigos, en algunos momentos “felices”. En cambio, los prompts a la IA son más profundos: saben si te preocupa tu trabajo, si tienes dudas existenciales, si te sientes perdido.
¿Qué es un prompt y por qué debería preocuparse?
Un prompt es la entrada de texto que escribes en un modelo de IA como Deepseek, Qwen chat o Gemini, entre otros. Puede ser una pregunta, una solicitud de análisis o hasta la redacción de una carta de disculpa a tu jefe porque “accidentalmente” llamaste a tu empresa una fábrica de explotación moderna. Pero lo importante no es solo qué preguntas, sino cómo lo haces.
Cada palabra que eliges, la forma en que estructuras la frase y la frecuencia con la que insistes en ciertos temas construyen un retrato detallado de quién eres. Y a diferencia de las redes sociales, donde puedes aparentar y jugar al misterio, aquí tu esencia se filtra sin obstáculos, constituyendo una mina de oro de información.
Los prompts en estos LLM van directo al grano. ¿Te interesa la política?, ¿te angustia tu futuro?, ¿quieres saber cómo hackear un algoritmo sin que te atrapen? (Ojo con este último, porque ahí sí que te atrapan).
La IA no solo registra lo que preguntas, sino que interpreta lo que realmente buscas, pero ojo, no razona como un humano y “nunca lo hará“.
Si un usuario escribe: ¿Cuánto ejercicio debo hacer para bajar de peso rápido?, ¿Cómo mantenerme saludable sin hacer ejercicio? ¿Por qué no puedo bajar de peso aunque como bien?, las tres preguntas parecen distintas, pero el sistema puede concluir lo mismo: hay una preocupación recurrente por la salud y la imagen corporal. Y con eso, ya tiene información clave para anuncios dirigidos, personalización de respuestas o, en el peor de los casos, manipulación de contenido.
No nos olvidemos de la existencia del (humano en el loop) con el usuario. Esto es que la interacción con un prompt dentro del chat GPT por ejemplo, es un proceso colaborativo en el que el usuario no solo recibe respuestas, sino que también influye en su calidad y precisión. La retroalimentación del usuario es fundamental para que la IA aprenda, mejore y se adapte a las necesidades individuales, serían los deditos para arriba o para abajo según el caso.
Sólo un concepto
Si crees que estas conversaciones quedan entre tú y la IA, piénsalo dos veces. No todos los modelos garantizan la privacidad, y en algunos casos, los datos pueden ser almacenados, analizados e incluso vendidos para publicidad, perfiles de riesgo y mucho más.
No olvides que estamos en la era del gobierno de los CEOs. Los modelos de IA sin regulación pueden: Usar tu perfil para ofrecer contenido sesgado y reforzar tus propias creencias (la llamada burbuja informativa). Ser utilizados para vigilancia o control por gobiernos y empresas (pregunta por qué ciertos modelos en China no te dejarán preguntar sobre ciertos temas y entenderás), la lista de acciones podría ser un poco larga.
¿Qué hacer?
La única manera de no ser perfilado es no usar la tecnología, pero como eso resulta utópico, ya que en algunos casos resulta un medio necesario, al menos puedes tomar precauciones: No reveles información sensible a los grandes modelos de lenguaje de dudosa procedencia. Utiliza modelos que ofrezcan garantías de privacidad (como las versiones empresariales que no almacenan datos). Evita caer en la tentación de preguntarle a la IA lo que nunca le dirías a tu psicólogo (o a tu mamá).
En un mundo donde la información es poder, tus preguntas pueden valer más que tus respuestas. Así que la próxima vez que te sientas en confianza con gran modelo de lenguaje, recuerda: no es tu amigo, no es tu confidente... y sí, probablemente ya sabe lo que vas a preguntar antes que tú!