La Comisión Europea ha enviado una serie de solicitudes formales de información (RFI) a Google, Meta, Microsoft, Snap, TikTok y X sobre cómo están manejando los riesgos relacionados con el uso de IA generativa.
Las solicitudes, que se relacionan con Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube y X, se realizan en virtud de la Ley de Servicios Digitales (DSA), las reglas reiniciadas de comercio electrónico y gobernanza en línea del bloque. Las ocho plataformas están designadas como plataformas en línea muy grandes (VLOP) según la regulación, lo que significa que deben evaluar y mitigar los riesgos sistémicos, además de cumplir con el resto del reglamento.
en un presione soltar El jueves, la Comisión dijo que les está pidiendo que proporcionen más información sobre sus respectivas medidas de mitigación de los riesgos relacionados con la IA generativa en sus servicios, incluso en relación con las llamadas “alucinaciones” en las que las tecnologías de IA generan información falsa; la difusión viral de deepfakes; y la manipulación automatizada de servicios que pueden engañar a los votantes.
“La Comisión también solicita información y documentos internos sobre las evaluaciones de riesgos y las medidas de mitigación relacionadas con el impacto de la IA generativa en los procesos electorales, la difusión de contenidos ilegales, la protección de los derechos fundamentales, la violencia de género, la protección de los menores y el bienestar mental. ser”, agregó la Comisión, enfatizando que las preguntas se relacionan con “tanto la difusión como la creación de contenido de IA generativa”.
En una reunión informativa con periodistas, la UE también dijo que está planeando una serie de pruebas de resistencia, previstas para después de Semana Santa. Esto pondrá a prueba la preparación de las plataformas para hacer frente a los riesgos generativos de la IA, como la posibilidad de una avalancha de falsificaciones políticas antes de las elecciones al Parlamento Europeo de junio.
“Queremos presionar a las plataformas para que nos digan lo que están haciendo para estar lo mejor preparados posible… para todos los incidentes que podamos detectar y ante los cuales tendremos que reaccionar en el período previo a las elecciones”. dijo un alto funcionario de la Comisión, hablando bajo condición de anonimato.
La UE, que supervisa el cumplimiento de los VLOP de estas reglas DSA específicas de las grandes tecnologías, ha nombrado la seguridad electoral como una de las áreas prioritarias para su aplicación. Recientemente ha estado consultando sobre reglas de seguridad electoral para los VLOP, mientras trabaja en la elaboración de una guía formal.
Las solicitudes de hoy tienen como objetivo en parte respaldar esa orientación, según la Comisión. Aunque las plataformas se han dado hasta el 3 de abril para brindar información relacionada con la protección de las elecciones, lo que está siendo tildado de solicitud “urgente”. Pero la UE dijo que espera finalizar las directrices de seguridad electoral antes de esa fecha: el 27 de marzo.
La Comisión señaló que el costo de producir contenido sintético está disminuyendo drásticamente, lo que aumenta los riesgos de que se produzcan deepfakes engañosos durante las elecciones. Es por eso que está atrayendo la atención en las principales plataformas con la escala necesaria para difundir ampliamente los deepfakes políticos.
Una industria tecnológica acuerdo para combatir el uso engañoso de la IA durante las elecciones que surgieron de la Conferencia de Seguridad de Munich el mes pasado, con el respaldo de varias de las mismas plataformas que la Comisión está enviando solicitudes de información ahora, no va lo suficientemente lejos en opinión de la UE.
Un funcionario de la Comisión dijo que su próxima guía de seguridad electoral irá “mucho más allá”, señalando un triple golpe de salvaguardias que planea aprovechar: comenzando con las “reglas claras de diligencia debida” de la DSA, que le otorgan poderes para abordar “situaciones de riesgo” específicas. ; combinado con más de cinco años de experiencia trabajando con plataformas a través del Código de prácticas contra la desinformación (no jurídicamente vinculante) que la UE pretende que se convierta en un Código de conducta en el marco de la DSA; y, en el horizonte, normas de etiquetado de transparencia/marcado de modelos de IA en virtud de la próxima Ley de IA.
El objetivo de la UE es construir “un ecosistema de estructuras de aplicación de la ley” que pueda aprovecharse en el período previo a las elecciones, añadió el funcionario.
Las RFI de la Comisión hoy también apuntan a abordar un espectro más amplio de riesgos de IA generativa que la manipulación de votantes, como los daños relacionados con la pornografía ultrafalsa u otros tipos de generación de contenido sintético malicioso, ya sea que el contenido producido sea imágenes/video o audio. Estas solicitudes reflejan otras áreas prioritarias para la aplicación de la DSA de la UE a los VLOP, que incluyen riesgos relacionados con contenidos ilegales (como el discurso de odio) y la protección infantil.
Las plataformas tienen hasta el 24 de abril para dar respuestas a estas otras RFI de IA generativas.
Las plataformas más pequeñas donde se pueden distribuir deepfakes engañosos, maliciosos o dañinos, y los pequeños fabricantes de herramientas de inteligencia artificial que pueden permitir la generación de medios sintéticos a menor costo, también están en el radar de mitigación de riesgos de la UE.
Dichas plataformas y herramientas no estarán bajo la supervisión explícita de los VLOP por parte de la DSA de la Comisión, ya que no están designadas. Pero su estrategia para ampliar el impacto regulatorio es aplicar presión indirectamente, a través de plataformas más grandes (que pueden actuar como amplificadores y/o canales de distribución en este contexto); y mediante mecanismos de autorregulación, como el mencionado Código de Desinformación; y el Pacto sobre IA, que se pondrá en funcionamiento en breve, una vez que se adopte la Ley de IA (de ley estricta) (lo que se espera sea en unos meses).