La integración de la inteligencia artificial (IA) en nuestras vidas ha sido tan profunda que a menudo pasa desapercibida. Sin embargo, incidentes como la reciente caída de GPT-4 han puesto de manifiesto nuestra dependencia de estas tecnologías y han planteado serias dudas sobre su fiabilidad y la necesidad de una regulación adecuada.
La omnipresencia de los modelos de procesamiento del lenguaje natural (LLM) en herramientas cotidianas como asistentes virtuales y traductores automáticos es innegable. Su uso se extiende a diversos sectores, incluyendo el ámbito profesional, donde sirven como base para la creación de borradores y otros tipos de documentos.
¿Qué sucedería si estos sistemas fallaran en momentos críticos? ¿Quién asumiría la responsabilidad por los errores cometidos? ¿Cómo podemos garantizar su uso ético y responsable? Estas preguntas adquieren mayor relevancia en un contexto laboral donde la mayoría de los trabajos se centran en el sector servicios y dependen en gran medida de nuestras habilidades cognitivas e invenciones, este sería el nuevo “paradigma” de la IA. Esta tiene el potencial de acrecentar estas habilidades, pero también de automatizar tareas, lo que plantea interrogantes sobre el futuro del trabajo y la necesidad de adaptación.
En este escenario, la legislación juega un papel crucial, sin embargo, la naturaleza compleja y multifacética de la IA dificulta la creación de leyes que abarquen todas sus implicaciones ya que el problema resulta “existencial” para la humanidad de difícil llegada a tiempo, por parte de la ley.
La regulación debe ser lo suficientemente flexible como para adaptarse a los rápidos avances tecnológicos, pero también lo suficientemente sólida y profunda como para proteger los derechos fundamentales y garantizar un uso responsable por parte de los usuarios y Big Tech.
Un estudio reciente publicado en Nature Human Behavior ha revelado que ciertos modelos de lenguaje grandes (LLM) igualan o incluso superan el rendimiento humano en tareas que evalúan la capacidad de comprender las perspectivas de otros, conocida como “teoría de la mente” en los humanos. Esto plantea interrogantes sobre las implicaciones éticas y sociales de la IA, así como sobre la necesidad de desarrollar herramientas y marcos que permitan evaluar y mitigar los posibles riesgos. El análisis comparativo de los modelos de lenguaje GPT-3.5 y GPT-4 de OpenAI y LLaMA2 en sus tres versiones, revela cómo estos modelos de lenguaje se desempeñan frente a los humanos en tareas que evalúan la teoría de la mente.
Los modelos fueron sometidos a pruebas que miden la comprensión de creencias incorrectas, la interpretación de peticiones indirectas y el reconocimiento de la ironía y errores sociales. GPT-4 igualó o superó a los humanos en la detección de peticiones indirectas, creencias incorrectas y desvíos sociales, aunque tuvo dificultades para detectar errores sociales.
En las pruebas específicas de ironía en la IA., GPT-4 demostró un rendimiento superior al de los humanos, superándolos en la comprensión de comentarios irónicos. Esto sugiere que el modelo ha aprendido a reconocer patrones de lenguaje que suelen asociarse con la ironía, posiblemente debido a su amplio entrenamiento en datos textuales que incluyen ejemplos de comunicación irónica.
Por otro lado, LLaMA2 mostró un rendimiento inferior al promedio humano en varias áreas, pero sorprendió al superar a los humanos en la detección de errores sociales, lo cual podría estar influenciado por un sesgo en el análisis.
A pesar de estos logros, es esencial recordar que estos modelos no poseen una comprensión auténtica de los estados mentales humanos, y su aparente capacidad para realizar estas tareas se debe en parte a la naturaleza de su entrenamiento en pruebas bien establecidas. Estos hallazgos resaltan la importancia de comprender las fortalezas y limitaciones de los LLM, a medida que la IA continúa evolucionando, es crucial que la investigación y la regulación avancen en paralelo para garantizar un desarrollo responsable y beneficioso para la sociedad.
Una de las posibles explicaciones para el excelente desempeño de los LLM es que estas evaluaciones psicológicas están muy bien fundamentadas y, en consecuencia, es probable que hayan sido incorporadas en sus datos de entrenamiento, según Maarten Sap, profesor asistente en la Universidad Carnegie Mellon (Pittsburgh, Pensilvania, EEUU), quien no participó en la investigación ver.
La ironía de la inteligencia artificial radica en su omnipresencia invisible en nuestras vidas, revelada sólo cuando falla, como en el caso de GPT-4. Esta dependencia tecnológica plantea interrogantes sobre la fiabilidad y la necesidad de una regulación más profunda y ágil, especialmente en un entorno laboral cada vez más digitalizado y automatizado.
A pesar de los avances en la comprensión de la “teoría de la mente” en comparación con la IA en su disciplina procesamiento del lenguaje natural., evidenciados en la investigación mencionada en este artículo, persisten dudas y escepticismo sobre su capacidad para interpretar matices sociales como la ironía y los errores sociales. Esto subraya la importancia de una evaluación continua y rigurosa de las capacidades y limitaciones de la IA, así como la necesidad de un desarrollo responsable y ético que tenga en cuenta las implicaciones sociales y laborales de esta tecnología en constante evolución.