lunes 20 de mayo 2024
Internacional

Avances Legislativos: Claves de la Primera Ley de Inteligencia Artificial de la Unión Europea

Avances Legislativos: Claves de la Primera Ley de Inteligencia Artificial de la Unión Europea
Por Sala de redacción
abril 22, 2024 - 15:13

La Unión Europea ha dado un paso significativo hacia la regulación de la inteligencia artificial al aprobar la primera normativa mundial sobre esta tecnología. El Parlamento Europeo respaldó la normativa con un amplio apoyo, con 523 votos a favor, 46 en contra y 49 abstenciones. Esta regulación tiene como objetivo garantizar la seguridad y el respeto a los derechos fundamentales en el despliegue de la inteligencia artificial.

El acuerdo alcanzado en diciembre por las instituciones comunitarias ahora espera la ratificación de los Estados miembros en el Consejo de la UE para su aprobación definitiva, con entrada en vigor programada para 2026. Este marco regulatorio abarcará la inteligencia artificial generativa, incluyendo tecnologías como Chat GTP, que tuvo un impacto significativo en el texto legislativo.

La normativa prohíbe el uso de inteligencia artificial en sectores que podrían amenazar los derechos de los ciudadanos, como la categorización biométrica con características sensibles, la recolección indiscriminada de imágenes faciales de internet y el uso de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

Además, se prohíbe el reconocimiento de emociones para crear sistemas de puntuación ciudadana y su uso en el trabajo, escuelas, actuaciones policiales predictivas y manipulación del comportamiento humano o explotación de vulnerabilidades.

Las fuerzas de seguridad contarán con excepciones limitadas para utilizar la identificación biométrica, siempre con autorización judicial, como en la búsqueda de personas desaparecidas o la prevención de ataques terroristas.

La normativa también establece requisitos de transparencia, exigiendo la publicación de resúmenes detallados sobre cómo se entrenan los modelos de inteligencia artificial, así como la clara etiquetación de contenidos creados por inteligencias artificiales.

Se identifican sectores de alto riesgo, como infraestructuras críticas, educación, seguridad y derechos fundamentales, que deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana.