Estados Unidos y Reino Unido acordaron trabajar juntos para monitorear modelos avanzados de IA en busca de riesgos de seguridad. Los dos países colaborarán en la investigación y realizarán al menos una prueba de seguridad conjunta.
Ambos países dicen que la seguridad es una de las principales preocupaciones cuando se trata de utilizar modelos de IA. La orden ejecutiva del presidente estadounidense Joe Biden sobre IA exigía que las empresas que desarrollaran sistemas de IA informaran los resultados de las pruebas de seguridad. Mientras tanto, el primer ministro del Reino Unido, Rishi Sunak, anunció la creación del Instituto de Seguridad de la IA del Reino Unido y afirmó que empresas como Google, Meta y OpenAI deben permitir la verificación de sus herramientas.
El acuerdo entre los Institutos de Seguridad de IA de ambos países entra en vigor de forma inmediata
La secretaria de Comercio de Estados Unidos, Gina Raimondo, dijo que el gobierno está “comprometido a desarrollar asociaciones similares con otros países para promover la seguridad de la IA en todo el mundo”.
“Esta asociación acelerará el trabajo de nuestros dos institutos en todo el espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en general”, dijo Raimondo en un comunicado.
A través del acuerdo, los dos países prometen colaborar en investigación técnica, explorar intercambios de personal y compartir información.
Un socio potencial tanto para Estados Unidos como para el Reino Unido es la Unión Europea, que aprobó sus propias y amplias regulaciones para el uso de sistemas de inteligencia artificial. La ley de IA de la UE, que no entrará en vigor hasta dentro de varios años, exige que las empresas que ejecutan potentes modelos de IA sigan estándares de seguridad.
El Instituto de Seguridad de IA del Reino Unido se estableció justo antes de una cumbre global de IA en noviembre, donde varios líderes mundiales, incluida la vicepresidenta estadounidense Kamala Harris, discutieron cómo aprovechar y posiblemente regular la tecnología a través de las fronteras.
El Reino Unido ha comenzado a realizar pruebas de seguridad en algunos modelos, aunque no está claro si tiene acceso a versiones lanzadas más recientemente. Varias empresas de IA han pedido más claridad al Instituto de Seguridad de IA del Reino Unido sobre los cronogramas y los próximos pasos si se determina que los modelos son riesgosos.