SambaNova, una startup de chips de IA que ha recaudado más de 1.100 millones de dólares en capital de riesgo hasta la fecha, apunta a OpenAI (y a sus rivales) con un nuevo producto de IA generativa dirigido a clientes empresariales.
SambaNova anunció hoy Samba-1, un sistema impulsado por inteligencia artificial diseñado para tareas como reescritura de texto, codificación, traducción de idiomas y más. La compañía llama a la arquitectura una “composición de expertos”, un nombre en jerga para un conjunto de modelos generativos de IA de código abierto, 56 en total.
Rodrigo Liang, cofundador y director ejecutivo de SambaNova, dice que Samba-1 permite a las empresas ajustar y abordar múltiples casos de uso de IA, evitando al mismo tiempo los desafíos de implementar sistemas de IA ad hoc.
“Samba-1 es completamente modular, lo que permite a las empresas agregar nuevos modelos de forma asincrónica… sin eliminar su inversión anterior”, dijo Liang a TechCrunch en una entrevista. “Del mismo modo, son iterativos, extensibles y fáciles de actualizar, lo que brinda a nuestros clientes espacio para adaptarse a medida que se integran nuevos modelos”.
Liang es un buen vendedor y lo que dice sonidos prometedor. ¿Pero es Samba-1? en realidad superior a muchos, muchos otros sistemas de IA para tareas empresariales que existen, ¿y menos de qué modelos de OpenAI?
Depende del caso de uso.
La principal ventaja aparente de Samba-1 es que, debido a que es una colección de modelos entrenados de forma independiente en lugar de un único modelo grande, los clientes tienen control sobre cómo se enrutan las indicaciones y solicitudes. Una solicitud realizada a un modelo grande como GPT-4 viaja en una dirección: a través de GPT-4. Pero una solicitud hecha a Samba-1 viaja uno de 56 direcciones (a uno de los 56 modelos que componen Samba-1), dependiendo de las reglas y políticas que especifique el cliente.
Esta estrategia multimodelo también reduce el costo de ajustar los datos de un cliente, afirma Liang, porque los clientes sólo tienen que preocuparse por ajustar modelos individuales o pequeños grupos en lugar de un modelo masivo. Y, en teoría, podría dar lugar a respuestas más fiables (por ejemplo, menos impulsadas por alucinaciones) a las indicaciones, afirma, porque las respuestas de un modelo se pueden comparar con las respuestas de los demás, aunque a costa de un cálculo adicional.
“Con esta… arquitectura, no es necesario dividir las tareas más grandes en otras más pequeñas, por lo que se pueden entrenar muchos modelos más pequeños”, dijo Liang, y agregó que Samba-1 se puede implementar en las instalaciones o en un entorno alojado dependiendo de una necesidades de los clientes. “Con un modelo grande, su cómputo por [request] es mayor, por lo que el coste de la formación es mayor. [Samba-1’s] La arquitectura colapsa el costo de la formación”.
Yo respondería que muchos proveedores, incluido OpenAI, ofrecen precios atractivos para ajustar grandes modelos generativos, y que varias empresas emergentes, Martian y Credal, proporcionan herramientas para enrutar mensajes entre modelos de terceros basados en reglas automatizadas o programadas manualmente. .
Pero lo que vende SambaNova no es novedad per se. Más bien, es un paquete de configuración y olvídate: una solución completa con todo incluido, incluidos chips de IA, para crear aplicaciones de IA. Y para algunas empresas, eso podría resultar más atractivo que cualquier otra cosa que esté sobre la mesa.
“Samba-1 ofrece a cada empresa su propio modelo GPT personalizado, ‘privatizado’ en sus datos y personalizado para las necesidades de su organización”, dijo Liang. “Los modelos se entrenan con los datos privados de nuestros clientes, alojados en un único [server] rack, con una décima parte del costo de las soluciones alternativas”.