Inteligencia “Emocional” Artificial: ¿Ciber Empatía?

Inteligencia “Emocional” Artificial: ¿Ciber Empatía?

Imagen generada con ImageFX Imagen generada con ImageFX

Fundador de FALK Impellers y FALK Advertising Matters.
Es consultor, comunicador, formador e impulsor de innovación y transformación en las organizaciones.

¡Piripipiiiii! Suena la arma por tercera o cuarta vez. Todo tu cuerpo se niega a escuchar el mandato a resetear un día más de tu asfixiante vida. Hace poco perdiste tu trabajo y tenés a Rocky tu labrador muy enfermo.

Con mucho esfuerzo intentás escaparte de tu cama. Tu angustia pesa unos 50 kilos extras en tu pecho. Siguiendo tu rutina desconectás tu celular de su cargador y una voz cálida te dice: “¡Buen día (lee aquí tu nombre)! ¡Hoy va a ser un gran día! Vamos a poner fuerzas y estaré para acompañarte. Si hacés clic acá y descargá tu CV. Me tomé la libertad de redactar mientras dormías. Además te preparé una lista de puestos de trabajo en los que tenés más de un 92% de probabilidad de ingresar. Por cierto, llamé al veterinario y tenés turno a las 10 para llevar a Rocky”.

Detengámonos un momento en esta imagen: ¿Da miedo o es una solución? Una máquina que pueda no solo obedecer comandos y responder a nuestras preguntas, sino también entender cómo nos sentimos y anticiparse a nuestras necesidades.

En la Era de la Humanidad Aumentada, donde la tecnología está destinada a potenciar nuestras capacidades sin desplazarnos, surge una idea que casi desafía nuestra percepción de lo que significa ser humano: la Inteligencia Emocional Artificial (IEA).

La IEA promete algo más que una respuesta automática. ¿Podría una inteligencia sin emociones entendernos? Es tentador pensar que sí, que una tecnología tan avanzada podría captar nuestro estado emocional y devolvernos algo similar a la empatía. Pero si una IA carece de sentidos, de historia, de experiencia y de esos matices únicos que hacen que cada emoción sea intransferible, ¿cómo puede siquiera acercarse a lo que sentimos?

La empatía una quimera de la tecnología

La inteligencia emocional nuestra no es un simple reconocimiento de expresiones o palabras. Es una conexión profunda que va más allá de la lógica. Percibimos una tristeza oculta detrás de una sonrisa, detectamos ansiedad en el silencio, respondemos no solo a lo que vemos, sino a lo que intuimos. Entonces, ¿qué significa que una máquina pueda "interpretar" emociones?

La IEA, con sus algoritmos avanzados, puede captar patrones de expresiones faciales, tonos de voz o palabras específicas, devolviendo respuestas que "simulen" empatía. Entender que cualquier tipo de inteligencia artificial es una simulación nuestra es clave para no sobrevender expectativas de su alcance. Es una imitación pero jamás será igual por la propia limitación del ente y la esencia de las cosas. Hay un muro ontológico entre lo humano y cualquier imitación computacional. Ya sea de nuestra inteligencia, consciencia, sentidos, voluntad y, en este caso, emocional.

Pero aquí está el dilema en la Era de la Humanidad Aumentada: ¿es suficiente esa simulación? ¿o estamos simplemente desarrollando una tecnología que imita sin sentir, que devuelve una versión hueca de algo esencialmente humano?

¿Acompañamiento Real o Simulación Vacía?

Volvamos a imaginar escenarios.

Un asistente de salud emocional. Un sistema que detecta, en nuestro tono de voz o en nuestras palabras, señales de estrés o tristeza, y nos sugiere ejercicios de respiración o frases de consuelo.

Suena útil, y quizás lo sea. Pero ¿qué significa emocionalmente ser consolado por una máquina que no comprende lo que estás atravesando, que no tiene una historia de vivencias que la conecte con tu dolor?

En el artículo de MIT Sloan titulado "Emotion AI Explained", los investigadores examinan esta cuestión, preguntándose si una máquina puede acompañarnos emocionalmente sin deshumanizar nuestras experiencias.

Advierten que la IEA, aunque puede detectar patrones en nuestras emociones, siempre será una simulación, y que existe el riesgo de reducir nuestras interacciones a una ilusión de empatía programada (MIT Sloan).

La IEA, con sus algoritmos complejos, puede captar patrones en nuestras expresiones faciales, en nuestro tono de voz, en palabras que indicamos sin darnos cuenta. Nos devuelve respuestas que “parecen” empatía, que imitan lo que sentimos.

Otro campo donde la IEA intenta ganar terreno es en la educación emocional para niños. Pensemos en un niño que muestra frustración mientras estudia. Un sistema de IEA podría captar ese estado y responder de forma adaptativa, manteniéndolo calmado o alentando su interés. ¿Pero qué tipo de aprendizaje emocional estamos fomentando si el modelo que sigue el niño es una máquina que imita la empatía? La inteligencia emocional se construye en contacto con personas reales, no con espejos digitales sin alma.

Amigo lector, deja irme por esta rama y tirarte un spoiler alert. En unos días o meses vas a escuchar hablar mucho de una herramienta que pude testear este martes. A mi criterio tiene el potencial de cambiar la forma en que estudiamos y aprendemos. Se llama Learn About y es un desarrollo de Google Labs que aún está en beta. Pocos usuarios en USA pueden testear. Cuando la usé fue otro momento eureka.

El riesgo de manipulación

El tema de la manipulación es inevitable. Cuando una máquina simula emociones, puede influir en nuestras decisiones y percepciones de maneras sutiles. Mi respuesta es un “SÍ” contundente y en negrita. 

Algunas empresas ya utilizan Emotion AI (Se conoce como Análisis de Sentimiento) en atención al cliente, adaptando respuestas en función de la frustración o calma de cada usuario. Suena bien, claro, pero ¿qué clase de relación construimos cuando la empatía está programada y al servicio de un interés comercial?

Como advierte un artículo de Wired “Emotional AI is no subtitute of Empathy”, el uso de inteligencia emocional artificial en marketing y atención al cliente plantea interrogantes éticos serios sobre el tipo de conexiones que queremos construir con la tecnología.

La Era de la Humanidad Aumentada nos exige transparencia. Los usuarios deben saber cuándo están interactuando con una IEA y comprender que detrás de la “empatía” que perciben solo hay algoritmos calculando respuestas. Sin esta transparencia, el riesgo es que nuestras relaciones se vuelvan cada vez más impersonales, que la autenticidad emocional se pierda en un mar de simulaciones.

La Inteligencia Emocional Artificial puede enriquecer nuestras vidas, ayudarnos en situaciones de necesidad, aliviar momentos de ansiedad o simplemente mejorar nuestras experiencias cotidianas. Pero es crucial recordar que la empatía, el consuelo y la conexión son valores profundamente humanos.

La IEA, en la Era de la Humanidad Aumentada, debe entenderse siempre como una herramienta para acompañarnos, no para sustituir la autenticidad de las relaciones humanas.

(...) Esa mañana llevaste a Rocky al veterinario. El tratamiento no era complejo, era cuestón de cambiarle su alimento. Por la tarde, te llegaron 3 notificaciones de LinkedIn para entrevistas laborales. Cuando la noche gritó su presencia. Tu cama dejó de ser una cárcel. Volviste a dormir tranquilo y con 47 kilos menos de angustias colgando de tu pecho.

Wired: Artificial Intelligence and Empathy: https://www.wired.com/story/artificial-intelligence-empathy/

Learn About by Google Labs:

Tamaño texto
Comentarios
Comentarios