Supongamos esta situación. Un alumno de primaria necesita investigar sobre la historia de la provincia de Tucumán, acude a ChatGPT y le pregunta: “¿Quién fue el primer gobernador de Tucumán?”. La aplicación de inteligencia artificial le responderá la siguiente oración: “El primer gobernador de la provincia de Tucumán fue Celedonio Gutiérrez. Gutiérrez asumió el cargo el 9 de julio de 1814, cuando Tucumán se separó de la jurisdicción de la Intendencia de Salta del Tucumán. Sin embargo, su mandato fue breve, ya que renunció al cargo en septiembre del mismo año. A partir de entonces, Tucumán tuvo una serie de gobernadores sucesivos”. Esta respuesta, errónea por cierto, no es una suposición, es la que realmente ofrece la aplicación en este momento. Quedan a la luz varias impresiones históricas de su afirmación, ya que no fue Celedonio Gutiérrez el primer gobernador tucumano sino Bernabé Aráoz, ni tampoco ejerció sólo un año y mucho menos asumió el cargo en 1814, cuando tenía sólo diez años.
A este tipo de errores se los conoce como “alucinaciones” y es un término que en el entorno de la inteligencia artificial generativa se utiliza para denominar al fenómeno en el cual un sistema arroja una respuesta que parece coherente pero que contiene datos parcialmente o totalmente incorrectos. Este tipo de imprecisiones se pueden generar no solo en las tecnologías que producen texto, sino también en aquellas que nos devuelven imágenes, audios o videos. Hemos visto, por ejemplo, imágenes generadas por inteligencia artificial con manos con cuatro dedos o errores de perspectiva que evidencian su falsedad. De hecho, los trabajos más precisos en la generación de imágenes buscan evitar las alucinaciones para acercarse lo más posible a una construcción creíble.
Las empresas creadoras de inteligencias artificiales son conscientes de las alucinaciones y advierten sobre ello. “GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias”, señaló OpenAI en el lanzamiento de la versión GPT-4 en marzo de este año. Google también admite estos errores y el presidente de la compañía, Sundar Pichai, reconoció problemas aún más inquietantes. En abril de este año, durante una entrevista en la cadena CBS, el directivo advirtió que los problemas de alucinación todavía afectan a la inteligencia artificial pero agregó que aún “no sabe por qué”. Pichai dijo que los errores son “esperados” y que todavía “nadie en el campo ha resuelto todavía los problemas de alucinaciones”. Consultado por si en un futuro estas inconsistencias se resolverán, el CEO de la empresa señaló que es tan compleja la naturaleza de los sistemas de IA que todavía hay partes que sus ingenieros no entienden completamente. “Hay un aspecto de esto que llamamos, todos nosotros en el campo, lo llamamos ‘caja negra’”, dijo. “Y no puedes decir por qué dijo esto, o por qué se equivocó”, reconoció.
Tanto Google como OpenAI tratan de ser cautelosos con las alucinaciones. De hecho, ChatGPT advierte en muchas de sus respuestas que la información con la que construye sus respuestas utiliza información previa a septiembre de 2021. Sin embargo, la información histórica sobre Tucumán es previa a esa fecha y aún así comete errores. Google, por su lado, en su chat de inteligencia artificial “Bard” aclara que es un producto “experimental” y antes de arrojar una respuesta publica el siguiente mensaje: “Es posible que tus conversaciones de Bard sean procesadas por revisores humanos con fines de calidad. No ingreses información sensible”.
Desafiante y atenta a las novedades de la industria tecnológica, la periodista Naomi Klein, autora de reconocidos libros como “No logo” o “La doctrina del shock”, fue más allá con el término “alucinaciones” en un reciente artículo publicado en The Guardian. Klein dijo que no son las máquinas quienes están alucinando, sino los directores ejecutivos de las compañías que las comercializan. Las verdaderas alucinaciones son, según la escritora, las ideas utópicas de que la IA acabará con la pobreza, curará todas las enfermedades, resolverá el cambio climático y hasta acabará con la soledad. Todo esto es “evidencia que no existe en absoluto”, sentenció y advirtió: “la IA, lejos de estar a la altura de todas esas alucinaciones utópicas, es mucho más probable que se convierta en una temible herramienta de mayor despojo”.
Sean alucinaciones técnicas o socioculturales como las que alerta Klein, estamos ante un nuevo problema que puede llevarnos a cometer desatinos más que importantes. Pueden que sean tropiezos corregibles como las tareas del colegio, pero que van más allá y que apuntan a confiar plenamente en las respuestas de un sistema que hasta sus propios creadores desconocen en gran parte. Y eso sí que es una novedad histórica, una verdadera “caja negra” a la que habrá que echar luz cuanto antes.