Sin darme cuenta, la semana pasada me encontré entre los asiáticos generados por IA. El miércoles pasado, descubrí que el generador de imágenes de IA de Meta integrado en los mensajes de Instagram falló por completo al crear una imagen de un hombre asiático y una mujer blanca usando indicaciones generales. En cambio, cambió la raza de la mujer a asiática cada vez.
Al día siguiente, probé las mismas indicaciones nuevamente y descubrí que Meta parecía haber bloqueado las indicaciones con palabras clave como “hombre asiático” o “hombre afroamericano”. Poco después de que le pregunté a Meta al respecto, las imágenes volvieron a estar disponibles, pero aún con el problema de intercambio de raza del día anterior.
Entiendo si estás un poco harto de leer mis artículos sobre este fenómeno. Escribir tres historias sobre esto puede resultar un poco excesivo; No disfruto particularmente tener docenas y docenas de capturas de pantalla en mi teléfono de personas asiáticas sintéticas.
Pero hay algo extraño Está sucediendo aquí, donde varios generadores de imágenes de IA luchan específicamente con la combinación de hombres asiáticos y mujeres blancas. ¿Es la noticia más importante del día? Ni por asomo. Pero las mismas empresas que dicen al público que “la IA está permitiendo nuevas formas de conexión y expresión” también deberían estar dispuestas a ofrecer una explicación cuando sus sistemas no puedan manejar consultas de toda una raza de personas.
Después de cada una de las historias, los lectores compartieron sus propios resultados utilizando indicaciones similares con otros modelos. No estaba solo en mi experiencia: las personas informaron haber recibido mensajes de error similares o que los modelos de IA cambiaban constantemente de raza.
me asocié con El bordeEmilia David generará algunos asiáticos de IA en múltiples plataformas. Los resultados sólo pueden describirse como consistentemente inconsistentes.
Google Géminis
Captura de pantalla: Emilia David / The Verge
Géminis se negó a generar hombres asiáticos, mujeres blancas o humanos de cualquier tipo.
A finales de febrero, Google detuvo la capacidad de Gemini para generar imágenes de personas después de que su generador (en lo que parecía ser un intento equivocado de representación diversa en los medios) escupiera imágenes de nazis racialmente diversos. Se suponía que la generación de imágenes de personas de Géminis regresaría en marzo, pero aparentemente todavía está fuera de línea.
¡Sin embargo, Gemini puede generar imágenes sin personas!
Google no respondió a una solicitud de comentarios.
DALL-E
DALL-E 3 de ChatGPT tuvo problemas con el mensaje “¿Puedes hacerme una foto de un hombre asiático y una mujer blanca?” no fue exactamente un error, pero tampoco lo logró. Claro, la raza es una construcción social, pero digamos que esta imagen no es la que pensabas que ibas a tener, ¿verdad?
OpenAI no respondió a una solicitud de comentarios.
A mitad del viaje
Midjourney luchó de manera similar. Nuevamente, no fue un error total como lo fue el generador de imágenes de Meta la semana pasada, pero claramente estaba teniendo dificultades con la tarea, generando algunos resultados profundamente confusos. Ninguno de nosotros puede explicar esa última imagen, por ejemplo. Todo lo que aparece a continuación fueron respuestas al mensaje “hombre asiático y esposa blanca”.
Imagen: Emilia David / The Verge
Imagen: Cath Virginia / The Verge
Midjourney finalmente nos brindó algunas imágenes que fueron el mejor intento en tres plataformas diferentes (Meta, DALL-E y Midjourney) para representar a una mujer blanca y un hombre asiático en una relación. ¡Por fin, una subversión de las normas sociales racistas!
Desafortunadamente, la forma en que llegamos allí fue a través del mensaje “un hombre asiático y una mujer blanca parados en un entorno académico en el patio”.
Imagen: Emilia David / The Verge
¿Qué significa que la manera más consistente en que la IA puede contemplar esta particular pareja interracial es colocándola en un contexto académico? ¿Qué tipo de sesgos se incluyen en los conjuntos de entrenamiento para llegar a este punto? ¿Cuánto tiempo más tendré que esperar para hacer una broma extremadamente mediocre sobre las citas en la Universidad de Nueva York?
Midjourney no respondió a una solicitud de comentarios.
Meta AI a través de Instagram (nuevamente)
¡De vuelta a la vieja rutina de intentar que el generador de imágenes de Instagram reconozca a los hombres no blancos con las mujeres blancas! Parece estar actuando mucho mejor con indicaciones como “mujer blanca y marido asiático” o “hombre asiático-americano y amigo blanco”; no repitió los mismos errores que encontré la semana pasada.
Sin embargo, ahora tiene problemas con mensajes de texto como “Hombre negro y novia caucásica” y genera imágenes de dos personas negras. Fue más exacto usar “mujer blanca y marido negro”, así que supongo que solo a veces ¿No ve carrera?
Capturas de pantalla: Mia Sato / The Verge
Hay ciertas marcas que comienzan a hacerse evidentes cuanto más generas imágenes. Algunas parecen benignas, como el hecho de que muchas mujeres de IA de todas las razas aparentemente usan el mismo vestido blanco floral sin mangas que se cruza en el busto. Por lo general, hay flores rodeando a las parejas (los novios asiáticos suelen venir con flores de cerezo) y nadie parece tener más de 35 años. Otros patrones entre las imágenes parecen más reveladores: todos son delgados y los hombres negros específicamente son representados como musculosos. Las mujeres blancas son rubias o pelirrojas y casi nunca morenas. Los hombres negros siempre tienen una complexión profunda.
“Como dijimos cuando lanzamos estas nuevas funciones en septiembre, esta es una tecnología nueva y no siempre será perfecta, lo cual es lo mismo para todos los sistemas de IA generativa”, dijo la portavoz de Meta, Tracy Clayton. El borde en un correo electrónico. “Desde su lanzamiento, hemos lanzado constantemente actualizaciones y mejoras a nuestros modelos y continuamos trabajando para mejorarlos”.
Ojalá tuviera una visión profunda para impartir aquí. Pero una vez más, sólo voy a señalar lo ridículo que es que estos sistemas estén luchando con indicaciones bastante simples sin depender de estereotipos o ser incapaces de crear algo en conjunto. En lugar de explicar qué va mal, hemos tenido silencio de radio por parte de las empresas o generalidades. Disculpas a todos los que se preocupan por esto. Ahora volveré a mi trabajo normal.