La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE) ha sido aprobada tras meses de negociaciones y presiones políticas, estableciéndose como la primera legislación de este tipo en el mundo. Este proyecto de ley tiene como objetivo mitigar los riesgos y proteger los derechos fundamentales en áreas donde el uso de la IA puede ser más perjudicial, como la sanidad, la educación, la vigilancia de fronteras y los servicios públicos. Además, prohíbe los usos que representen un “riesgo inaceptable”. A continuación, analizaremos las principales conclusiones de esta histórica Ley de IA.
Normas vinculantes para la transparencia y la ética
Las empresas tecnológicas suelen hablar de su compromiso con la ética de la IA, pero la falta de medidas concretas ha generado dudas en cuanto a su verdadero compromiso. La Ley de IA cambia esta situación al imponer normas jurídicamente vinculantes. Las empresas ahora están obligadas a notificar a los usuarios cuando interactúan con chatbots, sistemas de categorización biométrica o de reconocimiento de emociones. Además, se exige la etiquetación de los deepfakes y los contenidos generados por IA, así como el diseño de sistemas que permitan detectar medios generados por IA. Estas medidas van más allá de los compromisos voluntarios adoptados por las principales empresas de IA en Estados Unidos.
El proyecto de ley también establece que las organizaciones que ofrecen servicios esenciales, como seguros y banca, deben realizar evaluaciones de impacto para determinar cómo el uso de sistemas de IA afecta los derechos fundamentales de las personas.
Regulación de modelos de IA y margen de maniobra para las empresas
La Ley de IA exige una mayor documentación y cumplimiento de la legislación sobre derechos de autor para los modelos fundacionales y los sistemas de IA creados a partir de ellos. También se solicita a las empresas tecnológicas que informen sobre la seguridad y eficiencia energética de sus modelos de IA. Sin embargo, el compromiso alcanzado por los legisladores solo aplica normas más estrictas a los modelos de IA más potentes, basándose en la potencia informática necesaria para entrenarlos. Esto implica que las empresas evaluarán si sus modelos cumplen con estas normas más estrictas.
La Comisión Europea no ha revelado si modelos como GPT-4 de OpenAI o Gemini de Google estarán comprendidos en estas normas más estrictas, ya que solo las propias empresas conocen la potencia de cálculo utilizada para entrenar sus modelos. No obstante, la UE se reserva el derecho de cambiar la forma de medir la potencia de los modelos de IA a medida que la tecnología avance.
La UE como líder mundial en la regulación de la IA
La Ley de IA establece la creación de la Oficina Europea de la IA, que será el primer organismo en aplicar normas vinculantes sobre IA y convertirá a la UE en el regulador tecnológico de referencia a nivel mundial. Esta oficina coordinará el cumplimiento, la aplicación y la ejecución de la legislación. Además, se incluirá un grupo científico de expertos independientes que ofrecerá orientación sobre los riesgos sistémicos de la IA y la clasificación y prueba de modelos.
La UE también se posiciona como uno de los primeros lugares del mundo donde los ciudadanos podrán presentar quejas sobre los sistemas de IA y recibir explicaciones sobre cómo se llegaron a las conclusiones que les afectan.
La Ley de IA impone multas elevadas por incumplimiento, que varían entre el 1,5% y el 7% de la facturación global de una empresa, dependiendo de la gravedad de la infracción y del tamaño de la empresa.
Prioridad a la seguridad nacional
La Ley de IA prohíbe ciertos usos de la tecnología en la UE, como los sistemas de categorización biométrica que utilizan características sensibles, el raspado indiscriminado de imágenes faciales de internet o grabaciones de CCTV para crear bases de datos de reconocimiento facial, y el reconocimiento de emociones en el ámbito laboral o educativo. También se prohíbe el scoring social, los sistemas de IA que manipulan el comportamiento humano y aquellos utilizados para explotar las vulnerabilidades de las personas.
Sin embargo, la legislación no se aplica a los sistemas desarrollados exclusivamente para usos militares y de defensa.
La regulación del uso policial de sistemas biométricos en espacios públicos fue un tema controvertido durante las negociaciones. Aunque algunos países de la UE, como Francia, deseaban utilizar esta tecnología para combatir el crimen y el terrorismo, la Ley de IA establece que las fuerzas policiales solo podrán utilizar sistemas de identificación biométrica con aprobación judicial y para delitos específicos.
Próximos pasos y aplicación de la Ley de IA
El texto final de la Ley de IA aún está en proceso de redacción y deberá ser aprobado por los países europeos y el Parlamento de la UE antes de entrar en vigor oficialmente. Se espera que este proceso tome semanas o incluso meses.
Una vez que la ley esté vigente, las empresas tecnológicas tendrán dos años para adaptarse a las nuevas normas. Sin embargo, las prohibiciones sobre el uso de la IA se aplicarán en seis meses, y las empresas que desarrollen modelos fundacionales deberán cumplir con la ley en un año.
La Ley de IA de la UE representa un hito histórico en la regulación tecnológica. Con normas vinculantes sobre transparencia y ética, la UE busca liderar a nivel mundial la regulación de la IA. Esta legislación también establece mayores requisitos para los modelos de IA más potentes, aunque las empresas aún tienen cierto margen de maniobra. La seguridad nacional es prioritaria, prohibiendo ciertos usos de la IA, pero existen controles para garantizar que no se produzca una vigilancia masiva. Ahora, se espera que los países europeos y el Parlamento de la UE aprueben la ley para su pronta aplicación.