Por Alejandro Urueña y María S. Taboada
Magíster en Inteligencia Artificial./ Lingüista y Mg. en Psicología Social. Profesora Titular de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
La mayor parte de los análisis sobre la relación IA-humanos hace hincapié en su potencialidad cognitiva y, desde perspectivas en las alternan visiones mesiánicas y apocalípticas, se la suele visualizar ya como una revolución sin precedentes para el desarrollo de la humanidad, ya como un peligro que pone en riesgo el control del planeta por los sapiens. Hay, sin embargo, otra dimensión, que -como advierten Robert Mahari y Pat Pataranutaporn (2024) https://www.technologyreview.es/s/16585/es-la-ia-demasiado-seductora-hay-que-prepararse-para-la-ia-adictiva - está aún poco explorada: su poder de seducción. Más específicamente se refieren a cómo puede afectar el uso de la IA a los vínculos psicosociales. A partir de sus investigaciones y “del análisis de más de un millón de registros de interacción de CHAT GPT,” han descubierto que “el segundo uso más extendido es el juego de roles sexuales”. Hacen alusión aquí a la representación social del algoritmo como un posible amigo, compañero, pareja.
El aporte de los investigadores invita a reflexionar sobre el impacto en los vínculos sociales del uso de los chatbots con los fines mencionados.
En los últimos días hemos visto circular en las redes la imagen que Elon Musk con su “pareja”, un robot que se ciñe absolutamente a sus necesidades, deseos y representaciones: la materialización de su ficción de relación vincular. Los chatbot, desde su designación misma, simulan interacción, como la relación de Musk con “su mujer”. Sin embargo, el chatbot no implica interacción. Bajo la ficción de un diálogo, opera desde la acción de un humano que interroga o solicita algo a un algoritmo, de acuerdo con sus intereses específicos. La única condición de ese supuesto diálogo es amoldar adecuadamente el prompt a los objetivos que se persiguen. El modelo de operación reproduce los esquemas del conductismo: estímulo del humano, respuesta de la máquina. En este esquema es la máquina la que contiene el saber y el humano el que direcciona lo que quiere que “la fuente del saber” le conteste. La fuente, además, le ofrece una perspectiva unidireccional: no múltiples dimensiones o perspectivas del contenido. No hay argumentación, contra argumentación, debate, discusión: el saber es uno y el solicitante podrá o no aceptarlo. Las interacciones entre humanos, por el contrario, comportan dinámicas de múltiples perspectivas, posiciones, convergencias, divergencias, tensiones, contenciones; en suma: diá-logo, dos (o más) que comparten contenidos desde diferentes posicionamientos. Precisamente ese interjuego posibilita cambios, transformaciones en las concepciones del mundo, del sí mismo y de los otros.
En la relación chatboiana no hay tal dinámica de a dos. Y el bot, como quieren nuestros autores, es sumiso al humano pero a la vez -agregamos nosotros. es que el que sabe: no hay contradicción, sino una operación de legitimación que habilita la dependencia al algoritmo como modelo y como vínculo.
El uso de la herramienta tecnológica se resignifica como el vínculo ideal, donde el yo humano se representa al algoritmo como el otro perfecto que cumple todas sus necesidades y deseos sin cuestionamientos. Hay una distancia enorme entre esta relación tecnológica y la que proponen las redes: en ellas, los otros son humanos y por lo tanto no están hechos a la medida de las necesidades e intereses del que las usa y en estos espacios sí hay interacción: acciones entre varios diferentes, de distintos tipos y modalidades.
En un contexto social y virtual donde la diferencia de perspectivas, opiniones, ideas es visualizada como una agresión y donde las violencias lingüísticas, visuales, simbólicas, corporales recorren las prácticas y discursividades (incitadas además por jefes de Estado y funcionarios) el uso (no dialógico) del chatbot como espacio vincular y de ficcionalización del otro ideal se presenta a la vez como refugio y como soporte/herramienta de intolerancia ante la diferencia, el cambio y la construcción colectiva heterogénea que son aspectos constitutivos del homo sapiens y que le han permitido a nuestra especie sobrevivir, superar los desafíos del medio ambiente, transformar y transformarse.
¿Qué hacer ante este problema? El primer paso es visibilizar y compartirlo. A partir de este registro entendemos que se hace imperioso un análisis y un debate en todas las instituciones sociales y particularmente en los ámbitos educativos. Pero no sólo de la IA y de los LLM sino de las problemáticas sociales y vinculares concretas que favorecen las ficciones vinculares. Problemáticas que no son ajenas a las empresas sino un campo fértil para enormes ganancias y un camino certero- si no desplegamos colectivamente un análisis crítico del por qué y para qué de la IA- para la construcción de lo que hemos denominado IAcracia.
Una mirada jurídico tecnológica sobre el problema
El fenómeno de los denominados chatbots como sustitutos de sujetos en relaciones interpersonales, especialmente en contextos de intimidad, plantea desafíos legales y éticos apremiantes. Aunque la IA no ostenta actualmente la condición de sujeto de derecho, su capacidad para emular la interacción humana y su impacto en las dinámicas sociales exigen una respuesta jurídica acorde a los tiempos.
Desde una óptica jurídico tecnológica, es imperativo establecer normas claras que regulen el diseño, desarrollo y uso de chatbots, particularmente aquellos orientados a simular relaciones interpersonales. Estas regulaciones deben garantizar la transparencia, la salvaguarda de los datos personales y la prevención de abusos, asegurando que la tecnología no se convierta en un instrumento de manipulación o explotación.
La protección de los derechos fundamentales de los usuarios es innegociable. El uso de chatbots no puede vulnerar derechos como la dignidad, la libertad y la privacidad. Es crucial establecer mecanismos de control y sanción a los creadores de estas herramientas, para prevenir cualquier forma de abuso a través de estas tecnologías.
Asimismo, es esencial fomentar relaciones saludables y auténticas. La idealización de los chatbots como “compañeros perfectos” puede ser perjudicial para el desarrollo de vínculos interpersonales genuinos. La educación y la concientización sobre los riesgos de la dependencia tecnológica y la importancia de las interacciones humanas cara a cara son fundamentales.
La transparencia y la explicabilidad deben ser principios rectores en el diseño de sistemas de IA. Los usuarios deben ser informados de que interactúan con una IA y no con un ser humano. Además, las decisiones tomadas por estos sistemas deben ser comprensibles y justificables, evitando la opacidad y la discriminación algorítmica.
La responsabilidad y la rendición de cuentas son igualmente cruciales. Los desarrolladores y proveedores de chatbots deben asumir la responsabilidad por los daños causados por sus productos, tanto en el ámbito civil como penal.
Finalmente- y vale la pena insistir una vez más - la educación y la concientización desempeñan un papel clave. La sociedad necesita ser educada sobre las implicaciones éticas y sociales de la IA, fomentando el pensamiento crítico sobre el uso de chatbots y promoviendo la literacidad digital para que los usuarios puedan tomar decisiones informadas y responsables.
La Constitución Nacional y los tratados internacionales de derechos humanos brindan un marco sólido para abordar estos desafíos. La protección de la dignidad humana, la libertad de expresión, la privacidad y la no discriminación son principios fundamentales que deben guiar el desarrollo y la aplicación de la IA en el país.
La “IAcracia”, entendida desde otra visión no mercantil de lo social, empleada para el bien común, puede constituir un real avance que alcance a la humanidad toda. Sin embargo, su consecución requiere un compromiso ético y legal sólido, así como una participación activa de la sociedad en el debate sobre el futuro de la tecnología.
El artículo citado de Mahari y Pataranutaporn en MIT Technology Review subraya la necesidad de abordar los riesgos de la IA. La capacidad para generar contenido personalizado y adaptarse a las preferencias individuales puede llevar a una “adicción digital”, donde las interacciones con chatbots, que actúan como “compañeros perfectos” al reflejar los deseos del usuario, pueden desplazar las relaciones humanas auténticas y dificultar el desarrollo de vínculos saludables basados en la reciprocidad. Estos riesgos resaltan la necesidad de un marco jurídico-tecnológico que considere no solo los daños potenciales relacionados con la desinformación o la discriminación, sino también los efectos psicológicos y sociales de la interacción con sistemas de IA cada vez más sofisticados. Es crucial fomentar la investigación interdisciplinaria para comprender los mecanismos de la adicción a la IA y diseñar intervenciones que promuevan un uso saludable y equilibrado de la tecnología, así como un debate público informado sobre los límites éticos de la IA y su papel en la construcción de relaciones humanas significativas en la era digital.