La intervención de la IA en la evaluación de las emociones y los sentimientos es ya un hecho. Podemos preguntarnos qué importancia tiene este “conocimiento tecnológico” por parte de empresas que lo desarrollan y de las instituciones o empresas que lo aplican. Aprender a evaluar, “diagnosticar” emociones y sentimientos de otros puede ser una poderosa herramienta de control. Una de sus formas es la intervención de los algoritmos en las entrevistas de trabajo.
¿Qué es un algoritmo? Para decirlo en forma sencilla, es una serie de pasos para procesar datos de acuerdo con un fin que se quiere lograr. Es decir, es un procedimiento tecnológico para alcanzar determinados resultados. En términos científicos, es una función matemática con una matriz que usa información del pasado o del presente para predecir el futuro. Emplea herramientas matemáticas para simular el pensamiento humano.
La entrevista temida
En relación con lo emocional, un algoritmo puede o podría, a partir de determinados datos, “predecir” los sentimientos y emociones de los sujetos. En una entrevista de trabajo, esto implica que ese algoritmo define tus habilidades, tomando como base la interpretación de “datos emocionales”. Entre otros, el principal problema de esta “lectura” es que ha sido elaborada por trabajadores que se limitan a clasificar hechos y etiquetarlos como datos sin conocimiento específico sobre aspectos emocionales, sin participación en las entrevistas y sin ninguna referencia acerca de la situación en las que esas entrevistas han sido realizadas o se van a realizar.
Como puede advertirse existe una enorme distancia entre una entrevista fundada en un algoritmo y aquella realizada por profesionales expertos. Allí radica una de las diferencias fundamentales en la interpretación de datos que puede realizar un psicólogo y la que lleva a cabo un programador. El psicólogo conoce del tema, toma en cuenta a la persona integralmente y considera las circunstancias que influyen o determinan su subjetividad en cada aquí y ahora.
La definición del acceso al mercado laboral, por estos métodos de IA, se transforma en un mecanismo autoritario para clasificar postulantes a puestos de trabajo, mediante la forma de carga de datos arbitrarios cuyo fundamento científico nunca queda claro. .Por lo tanto, la clasificación deja de ser tal para convertirse en una determinación absoluta. Por eso, esta base de los algoritmos debe ser hoy observada detenidamente en relación con los parámetros que utiliza por las consecuencias que implica.
El campo laboral es una de las amenazas de la IA que “predice” emociones. No es el único. Pensemos el poder social de una máquina que puede introducirse en nuestra subjetividad y manipular nuestras emociones para controlar nuestro rol y nuestras potencialidades sociales. Es decir, para predeterminar qué podemos pensar, decir y hacer. La literatura ha dado demasiados ejemplos que se consideraban ficción o ciencia ficción, hasta hoy.
Visión artificial
Lo que se denomina “visión artificial” es otra evidencia del poder de la IA sobre la subjetividad. Es un software que buscar ver como un humano. Y si ve como un humano, puede definir la realidad como un humano. La diferencia radica en que esa visión está predeterminada y es homogénea, no diversa. Nos da una sola imagen de la realidad, que se toma como válida.
Si esa IA se ocupa de “ver” los datos de un humano, definirá de una vez quién es ese humano. Sin posibilidad de variación. Una sola imagen autoritaria de la realidad.
No se trata de demonizar la IA, como tantas veces se ha hecho con los avances de la tecnología a lo largo de la historia de la humanidad. Se trata mirar críticamente los beneficios y los riesgos, a los efectos de que este enorme avance de la ciencia y la tecnología sea en pro de los derechos y la equidad de todos los seres humanos.
PERFIL
› Por Alejandro Urueña
Etica e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Arquitectura y Soluciones en Inteligencia Artificial. Abogado. Diplomado en Derecho del Trabajo y Relaciones Laborales, Universidad Austral; Diplomado en Derecho 4.0, Universidad Austral; Magíster en Derecho del Trabajo y Relaciones Laborales, Universidad Austral (T.P); Posgrado de Inteligencia Artificial y Derecho, I.A.L.A.B, U.B.A. Posgrado en Metaverso, U.B.A. Programa (IA) Universidad Austral. Actualmente Cursando Maestría de Inteligencia Artificial Centro Europeo de Posgrado.