Meta anunció el miércoles la creación de un Consejo asesor de IA con sólo hombres blancos en él. ¿Qué más esperaríamos? Las mujeres y las personas de color llevan décadas hablando de ser ignoradas y excluidas del mundo de la inteligencia artificial a pesar de estar cualificadas y desempeñar un papel clave en la evolución de este espacio.
Meta no respondió de inmediato a nuestra solicitud de comentar sobre la diversidad del consejo asesor.
Este nuevo consejo asesor difiere del actual consejo directivo de Meta y de su Consejo de Supervisión, que es más diverso en la representación racial y de género. Los accionistas no eligieron esta junta de AI, que tampoco tiene ningún deber fiduciario. Meta le dijo a Bloomberg que el tablero Ofrecería “ideas y recomendaciones sobre avances tecnológicos, innovación y oportunidades de crecimiento estratégico”. Se reuniría “periódicamente”.
Es revelador que el consejo asesor de IA esté compuesto enteramente por empresarios y empresarios, no por especialistas en ética ni por nadie con una formación académica o de investigación profunda. Si bien se podría argumentar que los ejecutivos actuales y anteriores de Stripe, Shopify y Microsoft están bien posicionados para supervisar la hoja de ruta de productos de IA de Meta dada la inmensa cantidad de productos que han lanzado al mercado, se ha demostrado una y otra vez que la IA no lo es. como otros productos. Es un negocio arriesgado y las consecuencias de hacerlo mal pueden ser de gran alcance, especialmente para los grupos marginados.
En una entrevista reciente con TechCrunch, Sarah Myers West, directora general del AI Now Institute, una organización sin fines de lucro que estudia las implicaciones sociales de la IA, dijo que es crucial “examinar críticamente” las instituciones que producen IA para “asegurarse de que las necesidades del público”. [are] servido”.
“Esta es una tecnología propensa a errores, y sabemos por investigaciones independientes que esos errores no se distribuyen equitativamente, sino que dañan desproporcionadamente a las comunidades que durante mucho tiempo han soportado la peor parte de la discriminación”, dijo. “Deberíamos establecer un listón mucho, mucho más alto”.
Las mujeres tienen muchas más probabilidades que los hombres de experimentar el lado oscuro de la IA. Sensity AI descubrió en 2019 que el 96% de los videos deepfake de IA en línea eran videos sexualmente explícitos y no consensuados. La IA generativa se ha vuelto mucho más frecuente desde entonces, y las mujeres siguen siendo el objetivo de este comportamiento violatorio.
En un incidente de alto perfil ocurrido en enero, los deepfakes pornográficos no consensuados de Taylor Swift se volvieron virales en X, y una de las publicaciones más difundidas recibió cientos de miles de me gusta y 45 millones de visitas. Históricamente, las plataformas sociales como X no han logrado proteger a las mujeres de estas circunstancias, pero como Taylor Swift es una de las mujeres más poderosas del mundo, X intervino prohibiendo términos de búsqueda como “taylor swift ai” y taylor swift deepfake”.
Pero si esto te sucede a ti y no eres una sensación del pop mundial, es posible que no tengas suerte. Hay numeroso informes de estudiantes de secundaria y preparatoria que hacen deepfakes explícitos de sus compañeros de clase. Si bien esta tecnología existe desde hace tiempo, nunca ha sido tan fácil acceder a ella: no es necesario tener conocimientos tecnológicos para descargar aplicaciones que se anuncian específicamente para “desnudar” fotografías de mujeres o cambiar sus rostros en pornografía. De hecho, según un informe de Kat Tenbarge de NBC, Anuncios alojados en Facebook e Instagram para una aplicación llamada Perky AI, que se describió a sí misma como una herramienta para crear imágenes explícitas.
Dos de los anuncios, que supuestamente escaparon a la detección de Meta hasta que Tenbarge alertó a la compañía sobre el problema, mostraban fotos de las celebridades Sabrina Carpenter y Jenna Ortega con sus cuerpos borrosos, instando a los clientes a solicitar a la aplicación que se quitaran la ropa. Los anuncios utilizaban una imagen de Ortega de cuando apenas tenía dieciséis años.
El error de permitir que Perky AI hiciera publicidad no fue un incidente aislado. La Junta de Supervisión de Meta abrió recientemente investigaciones sobre la falta de manejo de informes de contenido sexualmente explícito generado por IA por parte de la compañía.
Es imperativo que las voces de las mujeres y las personas de color se incluyan en la innovación de los productos de inteligencia artificial. Durante mucho tiempo, estos grupos marginados han sido excluidos del desarrollo de tecnologías e investigaciones que cambiarán el mundo, y los resultados han sido desastrosos.
Un ejemplo sencillo es el hecho de que hasta la década de 1970, las mujeres estaban excluidas de los ensayos clínicos, lo que significaba que campos enteros de investigación se desarrollaban sin comprender cómo afectarían a las mujeres. Los negros, en particular, ven los impactos de la tecnología creada sin ellos en mente; por ejemplo, es más probable que los autos sin conductor los atropellen porque sus sensores podrían tener un momento más difícil detectar piel negra, según un estudio de 2019 realizado por el Instituto de Tecnología de Georgia.
Los algoritmos entrenados con datos ya discriminatorios solo regurgitan los mismos sesgos que los humanos los han entrenado para adoptar. En términos generales, ya vemos sistemas de IA que perpetúan y amplifican la discriminación racial. en el empleo, alojamientoy justicia penal. Los asistentes de voz tienen dificultades para comprender diversos acentos y, a menudo, marcar el trabajo por hablantes no nativos de inglés como generados por IA desde entonces, como señaló AxiosEl inglés es la lengua materna de la IA. Sistemas de reconocimiento facial señalar a los negros como posibles coincidencias para sospechosos de delitos con más frecuencia que a los blancos.
El desarrollo actual de la IA encarna las mismas estructuras de poder existentes en materia de clase, raza, género y eurocentrismo que vemos en otros lugares, y parece que no hay suficientes líderes que se ocupen de ello. Más bien, lo están reforzando. Los inversores, fundadores y líderes tecnológicos están tan concentrados en moverse rápido y romper cosas que parece que no pueden entender que la IA generativa (la tecnología de IA de moda del momento) podría empeorar los problemas, en lugar de mejorarlos. De acuerdo a un informe Desde McKinsey, la IA podría automatizar aproximadamente la mitad de todos los trabajos que no requieren un título de cuatro años y pagar más de 42.000 dólares al año, trabajos en los que los trabajadores minoritarios están sobrerrepresentados.
Hay motivos para preocuparse acerca de cómo un equipo de hombres exclusivamente blancos de una de las empresas tecnológicas más destacadas del mundo, que participan en esta carrera para salvar el mundo utilizando la IA, podría alguna vez asesorar sobre productos para todas las personas cuando solo un segmento demográfico reducido es representado. Se necesitará un esfuerzo enorme para crear tecnología que todos, realmente todos, puedan utilizar. De hecho, las capas necesarias para construir una IA segura e inclusiva (desde la investigación hasta la comprensión a nivel social interseccional) son tan intrincadas que es casi obvio que este consejo asesor no ayudará a Meta a hacerlo bien. Al menos donde Meta se queda corto, podría surgir otra startup.