El Parlamento Europeo votó el miércoles a favor de adoptar la Ley de IA, asegurando la pole posición del bloque en el establecimiento de reglas para una amplia gama de software impulsado por inteligencia artificial, o lo que los legisladores regionales han denominado “la primera ley integral de IA del mundo”.
Los eurodiputados respaldaron abrumadoramente el acuerdo provisional alcanzado en diciembre en conversaciones tripartitas con el Consejo, con 523 votos a favor frente a sólo 46 en contra (y 49 abstenciones).
La legislación histórica establece un marco basado en riesgos para la IA; aplicando varias reglas y requisitos dependiendo del nivel de riesgo asociado al caso de uso.
La votación del pleno del Parlamento de hoy se produce tras las votaciones afirmativas del comité y el acuerdo provisional que obtuvo el respaldo de los 27 embajadores de los Estados miembros de la UE el mes pasado. El resultado de la sesión plenaria significa que la Ley de IA está en camino de convertirse pronto en ley en toda la región, y sólo queda pendiente la aprobación final del Consejo.
Una vez publicada en el Diario Oficial de la UE en los próximos meses, la Ley de IA entrará en vigor 20 días después. Aunque hay una implementación gradual, con el primer subconjunto de disposiciones (casos de uso prohibidos) que entran en vigencia después de seis meses; y otros lo solicitan después de 12, 24 y 36 meses. Por tanto, no se espera una implementación total hasta mediados de 2027.
En el frente de la aplicación de la ley, las sanciones por incumplimiento pueden ascender hasta el 7% de la facturación anual mundial (o 35 millones de euros si es mayor) por violar la prohibición de usos prohibidos de la IA. Mientras que las infracciones de otras disposiciones sobre sistemas de IA podrían acarrear sanciones de hasta el 3% (o 15 millones de euros). La falta de cooperación con los órganos de supervisión corre el riesgo de recibir multas de hasta el 1%.
Durante un debate el martes, antes de la votación plenaria, Dragoș Tudorache, eurodiputado y coponente de la Ley de IA, dijo: “Siempre hemos asociado al concepto de inteligencia artificial los valores fundamentales que forman la base de nuestras sociedades. Y solo con eso, la Ley de IA ha impulsado el futuro de la IA en una dirección centrada en el ser humano. En una dirección en la que los humanos tengan el control de la tecnología y en la que ésta, la tecnología, nos ayude a aprovechar nuevos descubrimientos, el crecimiento económico, el progreso social y desbloquear el potencial humano”.
El coponente de la Ley AI, Dragoș Tudorache, aprueba el resultado de la votación plenaria en el Parlamento Europeo (Captura de pantalla: Natasha Lomas/TechCrunch)
La propuesta basada en el riesgo fue presentada por primera vez por la Comisión Europea en abril de 2021. Luego, los colegisladores de la UE en el Parlamento y el Consejo la modificaron y ampliaron sustancialmente, durante un proceso de negociación de varios años, que culminó con la consecución de un acuerdo político. después de maratónicas conversaciones finales en diciembre.
Según la ley, un puñado de posibles casos de uso de la IA se consideran “riesgo inaceptable” y se prohíben por completo (como la puntuación social o la manipulación subliminal). La ley también define un conjunto de aplicaciones de “alto riesgo” (como la IA utilizada en la educación o el empleo, o para biometría remota). Estos sistemas deben estar registrados y sus desarrolladores deben cumplir con las disposiciones de gestión de riesgos y calidad establecidas en la ley.
El enfoque basado en el riesgo de la UE deja a la mayoría de las aplicaciones de IA fuera de la ley, ya que se consideran de bajo riesgo y no se les aplican reglas estrictas. Pero la legislación también impone algunas obligaciones de transparencia (ligeras) a un tercer subconjunto de aplicaciones, incluidos los chatbots de IA; herramientas de inteligencia artificial generativa que pueden crear medios sintéticos (también conocidos como deepfakes); y modelos de IA de propósito general (GPAI). Las GPAI más poderosas enfrentan reglas adicionales si se las clasifica como con el llamado “riesgo sistémico”, la barrera para las obligaciones de gestión de riesgos que entran en vigor allí.
Las normas para las GPAI fueron una adición posterior a la Ley de IA, impulsada por eurodiputados preocupados. El año pasado, los legisladores del parlamento propusieron un sistema escalonado de requisitos destinado a garantizar que la ola avanzada de modelos responsables del reciente auge de las herramientas de inteligencia artificial generativa no escapara a la regulación.
Sin embargo, un puñado de Estados miembros de la UE, liderados por Francia, presionaron en la dirección opuesta, impulsados por el lobby de nuevas empresas locales de IA (como Mistral), presionando por una excepción regulatoria para los fabricantes de modelos avanzados de IA, argumentando que Europa debería centrarse en la ampliación. campeones nacionales en el campo de rápido desarrollo para evitar quedarse atrás en la carrera global de IA.
Ante una feroz presión, el compromiso político alcanzado por los legisladores en diciembre diluyó la propuesta original de los eurodiputados para regular las GPAI.
No otorgó una excepción total a la ley, pero la mayoría de estos modelos solo enfrentarán requisitos de transparencia limitados. Sólo los GPAI cuya formación utilizó una potencia de cálculo superior a 10^25 FLOP probablemente tendrán que llevar a cabo una evaluación y mitigación de riesgos en sus modelos.
Desde el acuerdo de compromiso, también se supo que Mistral recibió inversiones de Microsoft. El gigante tecnológico estadounidense tiene una participación mucho mayor en OpenAI, el fabricante de ChatGPT con sede en Estados Unidos.
Durante una conferencia de prensa celebrada hoy antes de la votación plenaria, se preguntó a los coponentes sobre el lobby de Mistral y si la startup había logrado debilitar las normas de la UE para las GPAI. “Creo que podemos estar de acuerdo en que los resultados hablan por sí solos”, respondió Brando Benifei. “La legislación define claramente las necesidades de seguridad de los modelos más potentes con criterios claros… Creo que hemos logrado un marco claro que garantizará la transparencia y los requisitos de seguridad para los modelos más potentes”.
Tudorache también rechazó la sugerencia de que los lobbystas hubieran influido negativamente en la forma final de la ley. “Negociamos y llegamos a los compromisos que consideramos razonables”, dijo, calificando el resultado como un equilibrio “necesario”. “El comportamiento y lo que las empresas eligen hacer son decisiones suyas y, de ninguna manera, han impactado el trabajo”.
“Todos los que desarrollaron estos modelos tenían interés en mantener una ‘caja negra’ en lo que respecta a los datos que entran en estos algoritmos”, añadió. “Mientras que promovimos la idea de transparencia, particularmente para el material protegido por derechos de autor, porque pensamos que es la única manera de hacer efectivos los derechos de los autores que existen”.
Benifei también señaló como otra victoria la adición de requisitos de informes ambientales en la Ley de IA.
Los legisladores agregaron que la Ley de IA representa el comienzo de un viaje para la gobernanza de la IA en la UE, enfatizando que el modelo deberá evolucionar y ampliarse con legislación adicional en el futuro, y Benifei señaló la necesidad de una directiva para establecer reglas para el uso de la IA en el lugar de trabajo.
También es necesario trabajar para mejorar las condiciones para las inversiones en IA, afirmó. “Queremos que Europa invierta en inteligencia artificial. Hacer más por la investigación común. Hacer más para compartir la capacidad computacional. El trabajo de las supercomputadoras… Será importante subrayar también la necesidad de completar la Unión de los Mercados de Capitales, porque necesitamos poder invertir en IA con más [ease] Que hoy. Hoy corremos el riesgo de que algunos inversores prefieran invertir en Estados Unidos que en otro país europeo, en otra empresa europea”.
“Esta Ley es sólo el comienzo de un viaje más largo, porque la IA tendrá un impacto que no solo podremos medir a través de esta Ley de IA: tendrá un impacto en los sistemas educativos, tendrá un impacto en nuestra mercado laboral, tendrá un impacto en la guerra”, añadió Tudorache. “Así que se abre un mundo completamente nuevo en el que la IA va a desempeñar un papel central y, por lo tanto, a partir de este momento, a medida que vamos a construir la gobernanza que surge de la Ley, tendremos ser muy consciente de esta evolución de la tecnología en el futuro. Y esté preparado para responder a los nuevos desafíos que puedan surgir de esta evolución de la tecnología”.
Tudorache también reiteró su llamado el año pasado a trabajar conjuntamente en la gobernanza de la IA entre gobiernos con ideas afines e incluso más ampliamente, dondequiera que se puedan forjar acuerdos.
“Todavía tenemos el deber de tratar de ser lo más interoperables posible: estar abiertos a construir una gobernanza con tantas democracias, con tantos socios con ideas afines. Porque la tecnología es unoindependientemente del cuarto del mundo en el que te encuentres. Por lo tanto, tenemos que invertir para unir esta gobernanza en un marco que tenga sentido”.