La normativa aprobada (con 499 votos a favor, 28 en contra y 93 abstenciones) regulará la inteligencia artificial (IA) según el nivel de riesgo: cuanto mayor sea para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de los sistemas tecnológicos.
Los planes originales de la Unión Europea (UE) para regular el uso de la IA se remontan a 2021, pero el asunto se volvió urgente después que ChatGPT irrumpió en escena, poniendo de relieve el vertiginoso desarrollo del sector.
Funcionarios de la UE apuntan que se iniciarán de inmediato las negociaciones directas con los 27 países del bloque, con la idea de tener un acuerdo sellado para finales de año.
Aún si se alcanza ese objetivo, la normativa no entraría en vigor hasta 2026, y por ello la UE precisará negociar también un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.
La mayoría de los eurodiputados apoyaba el proyecto de normativa y lo consideraba un hito.
Compleja tarea de regulación
"¿Es éste el momento adecuado para que Europa regule la IA? Mi respuesta es rotundamente sí: es el momento adecuado debido al profundo impacto que tiene la IA", dijo el eurodiputado Dragos Tudorache durante el debate parlamentario del martes, en Estrasburgo.
Un robot antropomórfico artista, en su taller, con sus pinturas.Imagen: picture alliance/Zoonar
"Lo que podemos hacer aquí es crear confianza y seguridad jurídica para permitir que la IA se desarrolle de manera positiva", dijo la vicepresidenta de la Comisión Europea, Margrethe Vestager.
La ley en discusión regulará la IA según el nivel de riesgo: cuanto mayor sea el riesgo para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de los sistemas.
La lista de alto riesgo propuesta por la UE incluye la IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración.
El Parlamento Europeo, por su parte, ha agregado condiciones adicionales antes de que se cumpla la clasificación de alto riesgo, incluida la posibilidad de dañar la salud, la seguridad, los derechos fundamentales o el medio ambiente.
También existen requisitos especiales para los sistemas de IA generativa, como ChatGPT y DALL-E, capaces de producir texto, imágenes, código, audio y otros medios, e incluyen la obligación de informar a los usuarios que una máquina, no un ser humano, produjo el contenido.
Uno de los legisladores que impulsó la iniciativa, Brando Benifei, pidió un "enfoque común" para abordar los riesgos de la IA. "Necesitamos comparar notas con legisladores de todo el mundo", dijo.
Tudorache, a su vez, agregó que la ley es necesaria "porque esperar que las empresas se autorregulen no es suficiente para salvaguardar a nuestros ciudadanos".
Además, los legisladores proponen la prohibición de los sistemas de IA de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva.
La difusión en imágenes falsas en redes sociales, creadas a partir de aplicaciones basadas en IA, como Midjourney, ha alertado sobre los riesgos de manipulación de la opinión pública y los peligros para la democracia.
Por esa razón, científicos europeos han pedido una moratoria en el desarrollo de los sistemas más potentes, hasta que estén mejor regulados por ley.