La Inteligencia Artificial es una tecnología que avanza a pasos agigantados y que si bien ofrece oportunidades inmensas para los seres humanos, también implica grandes riesgos, especialmente para el género femenino, sobre todo en materia de seguridad. Uno de los interrogantes que a menudo surgen con respecto a la IA tiene que ver con los límites entre lo verídico y fidedigno y aquello que es falso y que está en libre circulación en internet. Recientemente, una oleada de imágenes y videos falsificados de mujeres reales ha despertado las alarmas sobre los límites y usos éticos de esta tecnología.
Para dar un marco de abordaje a esta problemática, la especialista en derecho informático con perspectiva de género, Marina Benítez Demtschenko, explicó que lo que ocurre con la inteligencia artificial no es que presente mayores riesgos que otras tecnologías, sino que por su sofisticación “lo que plantea es un cuadro de verosimilitud que abruma, que asusta, que da cuenta de algo que se nos va de las manos”.
Benítez considera que no se debe demonizar a la IA planteándola en un escenario en que parece que va a tomar control por sí misma, como si fuese independiente de la manipulación humana. “La IA sigue la lógica de tecnologías de la información y la comunicación que hace décadas están en curso. Es un sistema de autoaprendizaje que se va nutriendo de la información que mismos usuarios le brindan”. En este sentido, explica que uno de los riesgos más grandes en materia de inteligencia artificial “no es en relación a las personas sino en relación a los mismos sistemas. Por ejemplo, si la inteligencia artificial pudiera ser programada para realizar ataques informáticos, para vulnerar sistemas informáticos, es decir, cuestiones de ciberseguridad”.
Pero el interrogante en este punto es ¿hasta donde la inteligencia artificial puede vulnerar aún más los derechos y garantías del género femenino en internet? A partir de allí, Benítez reflexiona que “las mujeres vuelven a estar en juego con una particular vulneración de sus derechos como lo han estado a lo largo de toda la era digital”.
Para dar un marco explicativo a esta vulnerabilidad por cuestión de género, la especialista considera que “las tecnologías han sido históricamente desarrolladas por un determinado grupo de la sociedad, lo que genera sesgos porque nutre a los sistemas de determinada información que es parcial. La respuesta que esa IA brinde va a ser en función de eso de lo que se le nutrió y quienes programan, quienes desarrollan, quienes supervisan, quienes financian, son hombres blancos heterosexuales que con esa misma noción del mundo dotan de información a los sistemas”. Entonces la problemática radica en que toda esa parte de la población mundial recibirá respuestas estandarizadas a partir de estos parámetros.
Los riesgos de la IA para las mujeres
Durante las últimas semanas se vio en las redes sociales cientos de descargos de mujeres que denunciaban haber sido víctimas del robo de datos y la falsificación de imágenes. Este es tal vez el mayor riesgo al que hoy en día están sometidas las mujeres: la utilización y reproducción de información de sus datos personales, de sus datos biométricos y de su material audiovisual para la generación de imágenes que no son reales pero que las representan. Sin embargo, aclara Benítez, la vulneración de derechos es mucho más amplia: las usuarias se ven sumamente afectadas por la utilización de su imagen, de sus rasgos para crear material falso con un fin de estimulación sexual, de cosificación y sexualización.
“Creo que la mayor exposición que nos genera a las mujeres es primero tener que explicar que no somos nosotras. Salir a contrarrestar una presunción que se da en torno a ese material. La presunción es que ante la duda es ella. El otro punto es la generación de confusión, que en una sociedad como la que vivimos la confusión hoy puede incluso dar lugar a ilícitos”, sostiene Benítez.
¿Qué pasa con regulación de la violencia digital machista en Argentina?
En el año 2017 se produjo una discusión controversial en el Congreso de la Nación en torno al proyecto de ley que buscaba ponerle un freno a la violencia digital machista en Argentina. La preocupación de un sector estaba dirigida a la posibilidad de que una regulación de este tipo implicara una restricción en la representación de las mujeres en los medios digitales. El argumento se basó en que, si el propósito era salvaguardar el contenido que representaba a las mujeres, sea material audiovisual o material gráfico, podía correr el riesgo de limitar la producción artística y la libertad de expresión.
Pero en la actualidad, la discusión no difiere demasiado de esas épocas y vuelve a centrarse en que se está tratando de priorizar la libertad de expresión por sobre el efecto disvalioso real que tienen este tipo de prácticas en la vida de las mujeres. “Se debe poner el foco, otra vez, en la relación entre el uso de las tecnologías de la información y la comunicación y nuestros derechos personalísimos: imagen, protección de datos personales, honor, integridad psicológica e integridad sexual, porque la generación artificial de imágenes que circulan nos coloca en riesgos reales, físicos y de integridad sexual”, explica Benítez.
Y hace hincapié en que este debate no es nuevo, pero lo distinto gira en torno a la IA y la verosimilitud de ese material que circula. “La idea de un parecido tan difícil de discutir con la realidad”, destaca.
Los principios éticos de la IA
Uno de los principios éticos de la inteligencia artificial tiene que ver con la transparencia. Además de tener en cuenta la protección de datos personales, la IA debe considerar en base a qué información se genera cierto contenido, qué tan libre acceso tiene el usuario a saber cómo está constituida, cómo se desarrolla, cómo opera una inteligencia artificial, quiénes son los desarrolladores, cómo se beneficia la empresa que está por detrás. “Esas son las cuestiones claves, así como el respeto a la privacidad”. Se puede considerar, entonces, que la transparencia, la protección de datos personales, la privacidad e intimidad son los principios éticos clave en la inteligencia artificial, pero el desafío está en que aún no están siendo lo suficientemente tratados.