Intel, Google, Microsoft, Meta y otros pesos pesados de la tecnología están estableciendo un nuevo grupo industrial, el Ultra Accelerator Link (ULink) Promoter Group, para guiar el desarrollo de los componentes que unen los chips aceleradores de IA en los centros de datos.
Anunciado el jueves, UALink Promoter Group, que también cuenta con AMD (pero no con Arm), Hewlett Packard Enterprise, Broadcom y Cisco entre sus miembros, propone un nuevo estándar industrial para conectar los chips aceleradores de IA que se encuentran en un número cada vez mayor de servidores. En términos generales, los aceleradores de IA son chips que van desde GPU hasta soluciones diseñadas a medida para acelerar el entrenamiento, el ajuste y la ejecución de modelos de IA.
“La industria necesita un estándar abierto que pueda avanzar muy rápidamente, en un entorno abierto. [format] eso permite a múltiples empresas agregar valor al ecosistema general”, dijo a los periodistas Forrest Norrod, director general de soluciones de centros de datos de AMD, en una sesión informativa el miércoles. “La industria necesita un estándar que permita que la innovación avance a un ritmo rápido y sin restricciones por parte de una sola empresa”.
La primera versión del estándar propuesto, UALink 1.0, conectará hasta 1.024 aceleradores de IA (solo GPU) en un único “módulo” informático. (El grupo define un vaina como uno o varios bastidores en un servidor.) UALink 1.0, basado en “estándares abiertos” que incluyen Tejido infinito de AMDpermitirá cargas y almacenamientos directos entre la memoria conectada a los aceleradores de IA y, en general, aumentará la velocidad al tiempo que reducirá la latencia de transferencia de datos en comparación con las especificaciones de interconexión existentes, según UALink Promoter Group.
El grupo dice que creará un consorcio, el UALink Consortium, en el tercer trimestre para supervisar el desarrollo de la especificación UALink en el futuro. UALink 1.0 estará disponible aproximadamente al mismo tiempo para las empresas que se unan al consorcio, con una especificación actualizada de mayor ancho de banda, UALink 1.1, que llegará en el cuarto trimestre de 2024.
Los primeros productos UALink se lanzarán “en los próximos años”, dijo Norrod.
Llamativamente ausente de la lista de miembros del grupo está Nvidia, que es, con diferencia, el mayor productor de aceleradores de IA con un estimado 80% a 95% del mercado. Nvidia se negó a hacer comentarios para esta historia. Pero no se entiende por qué el fabricante de chips no está apoyando con entusiasmo a UALink.
Por un lado, Nvidia ofrece su propia tecnología de interconexión patentada para vincular GPU dentro de un servidor de centro de datos. Probablemente la empresa no esté muy interesada en admitir una especificación basada en tecnologías rivales.
Luego está el hecho de que Nvidia opera desde una posición de enorme fuerza e influencia.
En el trimestre fiscal más reciente de Nvidia (primer trimestre de 2025), las ventas del centro de datos de la compañía, que incluyen las ventas de sus chips de IA, aumentaron más de un 400% respecto al trimestre del año anterior. Si Nvidia continúa En su trayectoria actual, se prevé que supere a Apple como la segunda empresa más valiosa del mundo en algún momento de este año.
Entonces, en pocas palabras, Nvidia no tiene que jugar si no quiere.
En cuanto a Amazon Web Services (AWS), el único gigante de la nube pública que no contribuye a UALink, podría estar en modo de “esperar y ver” mientras reduce (sin juego de palabras) sus diversos esfuerzos internos de hardware acelerador. También podría ser que AWS, con un dominio absoluto en el mercado de servicios en la nube, no vea mucho sentido estratégico en oponerse a Nvidia, que suministra gran parte de las GPU a las que sirve a sus clientes.
AWS no respondió a la solicitud de comentarios de TechCrunch.
De hecho, los mayores beneficiarios de UALink (además de AMD e Intel) parecen ser Microsoft, Meta y Google, que en conjunto han gastado miles de millones de dólares en GPU de Nvidia para alimentar sus nubes y entrenar sus modelos de IA en constante crecimiento. Todos buscan alejarse de un proveedor que consideran preocupantemente dominante en el ecosistema de hardware de IA.
Google tiene chips personalizados para entrenar y ejecutar modelos de IA, TPU y Axion. Amazon tiene varias familias de chips de IA en su haber. El año pasado Microsoft saltó a la palestra con Maia y Cobalt. Y Meta está perfeccionando su propia línea de aceleradores.
Mientras tanto, Microsoft y su estrecho colaborador, OpenAI, según se informa planea gastar al menos 100 mil millones de dólares en una supercomputadora para entrenar modelos de IA que estarán equipados con versiones futuras de chips Cobalt y Maia. Esos chips necesitarán algo que los vincule, y tal vez sea UALink.