BRUSELAS, Bélgica.- La Unión Europea alcanzó un acuerdo provisional para la creación de la primera Ley de Inteligencia Artificial, que busca sentar un precedente para regular esta tecnología a nivel internacional. El nuevo marco legal establecerá obligaciones para los sistemas de IA de alto impacto y definirá sanciones que podrían alcanzar hasta los 35 millones de euros.

Dentro de las regulaciones, destacan las exigencias de transparencia en sistemas de IA, incluyendo la necesidad de presentar documentos técnicos y resúmenes detallados sobre los datos usados en la formación de dichos sistemas. Hasta la fecha, compañías como OpenAI, creadora del popular modelo de IA generativa, ChatGPT, no han cumplido con estas demandas.

Además, se garantizará el derecho de reclamación ciudadana y explicaciones sobre decisiones tomadas por sistemas de inteligencia artificial de alto riesgo. Se espera alcanzar un acuerdo antes de fin de año, pero la ley no será efectiva hasta al menos 2025.

La Comisión Europea presentó, en abril de 2021, una propuesta para la regulación de la inteligencia artificial en la UE. Se la conoció como el “Reglamento sobre Inteligencia Artificial”, con el objetivo de que establezca normas para el desarrollo y uso ético de la inteligencia artificial en varios sectores. Tras dos años de discusión, estos fueron los puntos más importantes del acuerdo provisional alcanzados por el bloque comunitario.

La nueva legislación es que clasifica la IA en función del riesgo que representan. Se habla de cuatro niveles, que van desde el más bajo hasta el inasumible. Cuando se considere que la inteligencia artificial es de “alto riesgo” (las relacionadas con infraestructuras críticas, como instalaciones de agua, gas y electricidad o dispositivos médicos), deberá atenerse a requisitos estrictos.

Habría dos niveles más: el de “transparencia específico”, que establece que en los chatbots los usuarios deben ser conscientes de que interactúan con una máquina; y el “riesgo inaceptable”, categoría en la que se incluirían las IA que “manipulan el comportamiento humano para eludir el libre albedrío de los usuarios”.

Además, fueron identificadas y prohibidas ciertas aplicaciones tecnológicas por considerarlas una amenaza potencial para los derechos individuales y la seguridad democrática.

Las restricciones se centran en sistemas que utilizan categorización biométrica basada en características como la raza, la orientación sexual o las creencias religiosas. También estará prohibida la compilación de bases de datos de rostros a partir de imágenes obtenidas de internet o cámaras CCTV sin un propósito específico, así como la creación de sistemas de puntuación social.