Si bien muchos desarrolladores están investigando cómo se podría utilizar la IA generativa para producir objetos 3D completos desde cero, Adobe ya está utilizando su modelo Firefly AI para optimizar los flujos de trabajo 3D existentes. En la Conferencia de Desarrolladores de Juegos del lunes, Adobe estrenó dos nuevas integraciones por su paquete de software de diseño Substance 3D que permite a los artistas 3D producir rápidamente recursos creativos para sus proyectos utilizando descripciones de texto.
La primera es una función de “Texto a textura” para Substance 3D Sampler que, según Adobe, puede generar “texturas fotorrealistas o estilizadas” a partir de descripciones rápidas, como piel escalada o tela tejida. Luego, estas texturas se pueden aplicar directamente a modelos 3D, evitando a los diseñadores la necesidad de encontrar materiales de referencia adecuados.
La segunda característica es una nueva herramienta de “Fondo generativo” para Substance 3D Stager. Esto permite a los diseñadores utilizar indicaciones de texto para generar imágenes de fondo para los objetos que están componiendo en escenas 3D. Lo inteligente aquí es que ambas funciones en realidad utilizan tecnología de imágenes 2D, al igual que las herramientas anteriores de Adobe basadas en Firefly en Photoshop e Illustrator. Firefly no genera modelos o archivos 3D; en cambio, Substance utiliza imágenes 2D producidas a partir de descripciones de texto y las aplica de manera que aparecer 3D.
Las nuevas funciones Texto a textura y Fondo generativo están disponibles en las versiones beta de Substance 3D Sampler 4.4 y Stager 3.0, respectivamente. El jefe de 3D y metaverso de Adobe, Sébastien Deguy, dijo El Borde que ambas funciones son gratuitas durante la versión beta y se han entrenado en activos propiedad de Adobe, incluidos materiales de referencia producidos por la empresa y acciones de Adobe con licencia.