Por Alejandro Urueña y María S. Taboada / Magíster en Inteligencia Artificial / Lingüista y Mg. en Psicología Social. Profesora Titular de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.
El viernes comenzó uno de los festivales musicales más convocantes que tiene como sede el hipódromo de San Isidro en Buenos Aires denominado Lollapalooza. Una multitud salta, canta y levanta los brazos. Cámaras por todos lados. Sonrisas, emociones, expresiones auténticas. Mientras suena la última banda del día, alguien hace un paneo general con una lente que ya no se sabe cuántos pixeles de definición podría tener, debido al cambio acelerado de tecnologías existentes. Todo se archiva. Todo se guarda. ¿Para el recuerdo? Quizá. ¿Para entrenar algún modelo de inteligencia artificial que mañana reconozca tu cara en cualquier esquina del planeta? Tal vez. Te imaginas que los datos como estos fueran usados para el entrenamiento de alguna red neuronal profunda en el cual como consecuencia te suban o bajen el pulgar para el acceso a alguna universidad o para darte algún certificado y/o autorización. Ni qué decirte de qué se use para un perfilamiento según tus gustos musicales vinculados a ideologías y un poco más.
La implementación extendida de sistemas automatizados para adoptar determinaciones decisivas acerca de individuos expone una contradicción preocupante. Un procedimiento digital examina múltiples datos y establece una cierta posibilidad de que una persona específica pueda resultar un trabajador deficiente, un deudor peligroso, un posible extremista o un docente incompetente. “Esa probabilidad se condensa en una puntuación, que puede llegar a destrozar la vida de alguien” sostiene Cathy O’Neil en su libro (Cathy O’Neil, Armas de destrucción matemática), cuando estos individuos procuran justificarse, las evidencias presentadas generalmente son insuficientes para modificar el juicio generado. Por ello, quienes son afectados deben cumplir con criterios probatorios más exigentes que los propios algoritmos.
¿Y vos diste consentimiento para eso? No importa, ya entraste. Bienvenido a Lollapalooza versión data harvesting.
En uno de los ingresos del predio, un cartel colorido con el logo del festival y una advertencia que parece inocente, casi decorativa: “Al ingresar a este sector usted acepta ser fotografiado y/o filmado… renunciando expresamente a efectuar reclamos de cualquier índole…”. No hay mucho más. Nadie pregunta. Nadie objeta. “Nadie firma nada”. La música sigue.
Lo que parece un simple aviso de rutina es, en rigor, una licencia de captura masiva de datos personales sin consentimiento libre, expreso, informado, inequívoco y específico del titular del dato. Es decir, algo que podria colisionar directamente con la Ley 25.326 de Protección de los Datos Personales en Argentina, sancionada hace ya casi un cuarto de siglo, cuando las selfies eran cosa de ciencia ficción y el reconocimiento facial apenas aparecía en películas de espías, hoy existen en el congreso de la nación argentina una gran cantidad de proyectos presentados que solicitan su actualización pero el debate debe ser obligatoriamente amplio por que nos incumbe a todos (una nueva lucha por la libertad).
Hoy, en plena era de la inteligencia artificial generativa y del perfilado biométrico en tiempo real, nuestra ley sigue hablando de ficheros y bancos de datos (sin perjuicio de su amplia interpretación) como si el mayor riesgo fuera que nos agreguen mal en “la guía telefónica”. Spoiler: el mundo cambió.
Europa, en cambio, acaba de aprobar su AI Act, una normativa pionera que en parte entró en vigor el 2 de febrero de 2025. Esta ley prohíbe explícitamente ocho tipos de sistemas de inteligencia artificial, ya que implican un riesgo inaceptable para la seguridad y los derechos humanos. Entre ellos se destacan la manipulación subliminal, la explotación de vulnerabilidades humanas, la asignación de puntajes sociales y la identificación biométrica remota en tiempo real en espacios públicos, salvo excepciones puntuales contempladas por dicha legislación.
Para profundizar en esta normativa, puedes visitar el siguiente enlace: (Ocho tipos de sistemas de Inteligencia Artificial (IA) están prohibidos en la Unión Europea desde el 2 de febrero de 2025.)
1) Sistemas que califican a personas por su comportamiento o estatus social (adiós al scoring de la obediencia).
2) Sistemas que predicen delitos basándose solo en perfiles (Minority Report versión legal).
3) Reconocimiento facial sin consentimiento para crear bases de datos (hola, cartelito de Lolla).
4) Sistemas que leen emociones en el trabajo o en clase (¿feliz o despedido?)
5) IA que deduce información sensible a partir de datos biométricos (una gota de sudor como prueba).
6) Algoritmos que explotan vulnerabilidades (cómo cebar con videos virales al insomnio adolescente).
7) Sistemas que manipulan el comportamiento para causar daño (los nudges oscuros del marketing digital).
8) Identificación biométrica remota y en tiempo real en espacios públicos (con excepciones, pero excepciones caras).
¿Y en Argentina? Mientras tanto, seguimos en un limbo. La ley no contempla IA, no distingue entre una selfie para el recuerdo y una imagen usada para inferir tu estado de ánimo o filtrar tus movimientos. Nadie te dice si tu rostro alimentará un modelo de predicción emocional, si tu alegría se convertirá en metadato, si tu presencia será parte de un dataset que nunca firmaste.
Además, al tratarse de un evento con entrada paga, donde el ingreso implica aceptar ciertas condiciones, se configura lo que en derecho se denomina un contrato de “adhesión” (Ver: “Dicho de otro modo; para Lorenzetti, los CA son acuerdos tradicionales que presentan una degradación de la autonomía de la voluntad y, además, un modo diverso de prestar el consentimiento”).
En este caso el organizador impone las cláusulas, como el uso irrestricto de tu imagen y el asistente no puede modificarlas ni negociarlas. En otras palabras: el cartel que parecía legal, podría no serlo.
¿Qué podemos hacer entonces?
-Actualizar la Ley 25.326 en un debate amplio que abarque todos los sectores sociales, para incluir el tratamiento algorítmico, el perfilado, la biometría y el uso de datos en contextos de IA.
-Exigir consentimiento real y no ficticio, porque entrar a un festival no equivale a ceder tus derechos. (ver TR LA LEY AR/DOC/2138/2023: En el caso el consentimiento libre, expreso, informado, inequívoco y específico del titular del dato es el medio que posee este para exteriorizar su voluntad en el ejercicio de su derecho de autodeterminación infor- mativa, a los fines de permitir el tratamiento de los datos que a él se refieran.
El consentimiento del titular del dato como principio de tratamiento es insustituible, pues no resulta lícito ni constitucional suplir la voluntad del más débil de una relación asimétrica de poder por la voluntad de la parte más fuerte de ella, en el caso el responsable de tratamiento, y porque nadie más que el propio titular sabe qué es lo que desea en materia del autogobierno de sus datos respecto del destino de estos).
-Promover una Ley de Inteligencia Artificial Argentina que contemple riesgos, principios éticos, impacto social y mecanismos de control.
-Crear una agencia de supervisión con dientes, no solo con formularios con un justo equilibrio entre los derechos fundamentales y el promovido progreso tecnológico.
-Y, sobre todo, preguntar más y aceptar menos.
En definitiva, no es que no puedas disfrutar de la música. Pero estaría bueno saber si además de bailar, podrías estar ayudando a entrenar un modelo que te venderá zapatillas, anticipará tus emociones o un día será usado para identificarte sin que te enteres.
Así que ya sabés: la próxima vez que vayas a un recital y veas una cámara, no solo sonreí… hagamos una sana crítica racional.