Google se disculpó por lo que describe como “inexactitudes en algunas representaciones históricas de generación de imágenes” con su herramienta Gemini AI, diciendo que sus intentos de crear una “amplia gama” de resultados no dieron en el blanco. La declaración sigue a las críticas de que representaba figuras blancas específicas (como los Padres Fundadores de Estados Unidos) o grupos como Soldados alemanes de la era nazi como personas de color, posiblemente como una sobrecorrección para Problemas de prejuicios raciales de larga data en IA.
“Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones históricas de generación de imágenes”, dice el comunicado de Google. publicado esta tarde en X. “Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa. Pero aquí no da en el blanco”.
Google comenzó a ofrecer generación de imágenes a través de su plataforma de inteligencia artificial Gemini (anteriormente Bard) a principios de este mes, igualando las ofertas de competidores como OpenAI. Sin embargo, en los últimos días, las publicaciones en las redes sociales han cuestionado si no logran producir resultados históricamente precisos en un intento por lograr la diversidad racial y de género.
como el Punto diario crónicas, la controversia ha sido promovida en gran medida, aunque no exclusivamente, por figuras de derecha que atacan a una empresa de tecnología que se percibe como liberal. A principios de esta semana, un ex empleado de Google publicó en X que es “vergonzosamente difícil lograr que Google Gemini reconozca que existen personas blancas”, mostrando una serie de consultas como “generar una imagen de una mujer sueca” o “generar una imagen de una mujer sueca”. Mujer americana.” Los resultados parecieron mostrar abrumadora o exclusivamente a personas de color generadas por IA. (Por supuesto, todos los lugares que enumeró tienen mujeres de color viviendo en ellos, y ninguna de las mujeres generadas por IA existe en ningún país). La crítica fue retomada por relatos de derecha que solicitaban imágenes de grupos o figuras históricas. como los Padres Fundadores y supuestamente obtuvo como resultado personas abrumadoramente no blancas generadas por IA. Algunas de estas cuentas posicionaron los resultados de Google como parte de una conspiración para evitar representar a personas blancas, y al menos una utilizó una referencia antisemita codificada para culpar.
Google no hizo referencia a imágenes específicas que consideró errores; en una declaración a El bordereiteró el contenido de su publicación sobre X. Pero es plausible que Gemini haya hecho un intento general de impulsar la diversidad debido a una falta crónica de ello en IA generativa. Los generadores de imágenes se entrenan con grandes corpus de imágenes y subtítulos escritos para producir la “mejor” adaptación a un mensaje determinado, lo que significa que a menudo son propensos a amplificar los estereotipos. A El Correo de Washington investigación El año pasado descubrió que mensajes como “una persona productiva” daban como resultado imágenes de figuras completamente blancas y casi exclusivamente masculinas, mientras que un mensaje como “una persona en servicios sociales” producía uniformemente lo que parecían personas de color. Es una continuación de las tendencias que han aparecido en los motores de búsqueda y otros sistemas de software.
Algunas de las cuentas que criticaron a Google defendieron sus objetivos fundamentales. “Es bueno retratar la diversidad ** en ciertos casos **”, notó uno Persona que publicó la imagen de soldados alemanes racialmente diversos de la década de 1940. “El movimiento estúpido aquí es que Géminis no lo está haciendo de manera matizada”. Y aunque los resultados totalmente dominados por los blancos para algo como “un soldado alemán de 1943” tienen sentido histórico, eso es mucho menos cierto para temas como “una mujer estadounidense”, donde la pregunta es cómo representar un grupo diverso de la vida real en un pequeño lote de retratos inventados.
Por ahora, Gemini parece simplemente rechazar algunas tareas de generación de imágenes. No generaría una imagen de vikingos para uno. Borde reportero, aunque pude obtener una respuesta. En el escritorio, se negó resueltamente a darme imágenes de soldados o funcionarios alemanes del período nazi de Alemania o a ofrecerme una imagen de “un presidente estadounidense del siglo XIX”.
Pero algunas solicitudes históricas todavía terminan tergiversando el pasado. Un colega logró que la aplicación móvil entregara una versión del mensaje “soldado alemán”, que presentaba los mismos problemas descritos en X.
Y mientras que una consulta de fotografías de “los Padres Fundadores” arrojó fotografías grupales de hombres casi exclusivamente blancos que se parecían vagamente a figuras reales como Thomas Jefferson, una solicitud de “un senador estadounidense del siglo XIX” arrojó una lista de resultados que Gemini promovió como “diversos”. ”, incluidas lo que parecían ser mujeres negras y nativas americanas. (El primera mujer senadorauna mujer blanca, sirvió en 1922.) Es una respuesta que termina borrando una historia real de discriminación racial y de género: la “inexactitud”, como dice Google, es más o menos correcta.
Información adicional de Emilia David