Ahora se exigirá que todas las agencias federales de EE. UU. tengan un líder de alto nivel que supervise todos los sistemas de IA que utilizan, ya que el gobierno quiere garantizar que el uso de la IA en el servicio público siga siendo seguro.
La vicepresidenta Kamala Harris anunció la nueva orientación de la OMB en una sesión informativa con periodistas y dijo que las agencias también deben establecer juntas de gobierno de IA para coordinar cómo se utiliza la IA dentro de la agencia. Las agencias también deberán presentar un informe anual a la Oficina de Gestión y Presupuesto (OMB) en el que se enumeren todos los sistemas de inteligencia artificial que utilizan, los riesgos asociados con ellos y cómo planean mitigarlos.
“Hemos ordenado a todas las agencias federales que designen un director de IA con la experiencia, los conocimientos y la autoridad para supervisar todas las tecnologías de IA utilizadas por esa agencia, y esto es para garantizar que la IA se use de manera responsable, entendiendo que debemos tener líderes de alto nivel. en todo nuestro gobierno, quienes tienen la tarea específica de supervisar la adopción y el uso de la IA”, dijo Harris a los periodistas.
El director de AI no necesariamente tiene que ser una persona designada políticamente, aunque depende de la estructura de la agencia federal. Las juntas de gobierno deben crearse antes del verano.
Esta guía amplía las políticas anunciadas anteriormente y descritas en la orden ejecutiva de IA de la administración Biden, que requirió que las oficinas federales crearan estándares de seguridad y aumentaran la cantidad de talentos de IA que trabajan en el gobierno.
Algunas agencias comenzaron a contratar directores de IA incluso antes del anuncio de hoy. El Departamento de Justicia anunció a Jonathan Mayer como su primer CAIO en febrero. Dirigirá un equipo de expertos en ciberseguridad para descubrir cómo utilizar la IA en la aplicación de la ley.
El gobierno de Estados Unidos planea contratar 100 profesionales de IA para el verano, según la presidenta de la OMB, Shalanda Young.
Parte de la responsabilidad de los funcionarios de IA y los comités de gobernanza de las agencias es monitorear sus sistemas de IA con frecuencia. Young dijo que las agencias deben presentar un inventario de los productos de IA que utiliza. Si algún sistema de IA se considera lo suficientemente “sensible” como para dejarlo fuera de la lista, la agencia debe proporcionar públicamente una razón para su exclusión. Las agencias también deben evaluar de forma independiente el riesgo de seguridad de cada plataforma de IA que utilizan.
Las agencias federales también deben verificar que cualquier IA que implementen cumpla con salvaguardas que “mitiguen los riesgos de discriminación algorítmica y brinden al público transparencia sobre cómo el gobierno usa la IA”. La hoja informativa de la OMB ofrece varios ejemplos, entre ellos:
Cuando estén en el aeropuerto, los viajeros tendrán la posibilidad de optar por no utilizar el reconocimiento facial de la TSA sin ningún retraso o pérdida de su lugar en la fila.
Cuando se utiliza la IA en el sistema de salud federal para respaldar decisiones de diagnóstico críticas, un ser humano supervisa el proceso para verificar los resultados de las herramientas y evita disparidades en el acceso a la atención médica.
Cuando se utiliza la IA para detectar fraude en los servicios gubernamentales, existe una supervisión humana de las decisiones impactantes y las personas afectadas tienen la oportunidad de buscar reparación por los daños causados por la IA.
“Si una agencia no puede aplicar estas salvaguardas, debe dejar de utilizar el sistema de IA, a menos que el liderazgo de la agencia justifique por qué hacerlo aumentaría los riesgos para la seguridad o los derechos en general o crearía un impedimento inaceptable para las operaciones críticas de la agencia”, se lee en la hoja informativa.
Según la nueva guía, todos los modelos, códigos y datos de IA de propiedad gubernamental deben hacerse públicos a menos que representen un riesgo para las operaciones gubernamentales.
Estados Unidos todavía no tiene leyes que regulen la IA. La orden ejecutiva sobre IA proporciona directrices para las agencias gubernamentales dependientes del poder ejecutivo sobre cómo abordar la tecnología. Si bien se han presentado varios proyectos de ley que regulan algunos aspectos de la IA, no ha habido mucho movimiento en la legislación sobre tecnologías de IA.