Apenas una semana después de lanzar la última versión de sus modelos Gemini, Google anunció hoy el lanzamiento de Gemma, una nueva familia de modelos livianos de peso abierto. Empezando con Gemma 2B y Gemma 7Bestos nuevos modelos fueron “inspirados en Gemini” y están disponibles para uso comercial y de investigación.
Google no nos proporcionó un documento detallado sobre cómo funcionan estos modelos frente a modelos similares de Meta y Mistral, por ejemplo, y sólo señaló que son “de última generación”. Sin embargo, la compañía notó que estos son modelos densos que solo tienen decodificadores, que es la misma arquitectura que usó para sus modelos Gemini (y sus modelos PaLM anteriores) y que veremos los puntos de referencia más tarde hoy Tabla de clasificación de Hugging Face.
Para comenzar con Gemma, los desarrolladores pueden obtener acceso a portátiles Colab y Kaggle listos para usar, así como integraciones con Hugging Face, MaxText y NeMo de Nvidia. Una vez entrenados y ajustados previamente, estos modelos pueden funcionar en todas partes.
Si bien Google destaca que se trata de modelos abiertos, cabe señalar que no son de código abierto. De hecho, en una conferencia de prensa previa al anuncio de hoy, Janine Banks de Google destacó el compromiso de la compañía con el código abierto, pero también señaló que Google es muy intencional en la forma en que se refiere a los modelos Gemma.
“[Open models] se ha vuelto bastante omnipresente ahora en la industria”, dijo Banks. “Y a menudo se refiere a modelos de pesos abiertos, donde existe un amplio acceso para que los desarrolladores e investigadores personalicen y afinen los modelos pero, al mismo tiempo, los términos de uso (cosas como la redistribución, así como la propiedad de aquellas variantes que se desarrollan: varían según los términos de uso específicos del modelo. Y entonces vemos alguna diferencia entre lo que tradicionalmente llamaríamos código abierto y decidimos que tenía más sentido referirnos a nuestros modelos Gemma como modelos abiertos”.
Eso significa que los desarrolladores pueden usar el modelo para inferir y ajustarlo a voluntad y el equipo de Google sostiene que, aunque estos tamaños de modelo son adecuados para muchos casos de uso.
“La calidad de la generación ha aumentado significativamente en el último año”, dijo Tris Warkentin, director de gestión de productos de Google DeepMind. “Cosas que antes eran competencia de modelos extremadamente grandes, ahora son posibles con modelos más pequeños y modernos. Esto desbloquea formas completamente nuevas de desarrollar aplicaciones de IA que nos entusiasman mucho, incluida la posibilidad de ejecutar inferencias y realizar ajustes en su computadora de escritorio o portátil de desarrollador local con su GPU RTX o en un solo host en GCP con Cloud TPU, también. .”
Esto también se aplica a los modelos abiertos de los competidores de Google en este espacio, por lo que tendremos que ver cómo se desempeñan los modelos Gemma en escenarios del mundo real.
Además de los nuevos modelos, Google también está lanzando un nuevo conjunto de herramientas de IA generativa responsable para proporcionar “orientación y herramientas esenciales para crear aplicaciones de IA más seguras con Gemma”, así como una herramienta de depuración.