Descripción general de los modelos de Gemma

Gemma es una familia de modelos abiertos, ligeros y de vanguardia, compilados a partir de la misma investigación y tecnología que se usó para crear los modelos Gemini. Desarrollada por Google DeepMind y otros equipos de Google, Gemma lleva su nombre en latín gemma, que significa "piedra preciosa". Las ponderaciones del modelo Gemma son compatibles con herramientas para desarrolladores que promueven la innovación, la colaboración y el uso responsable de la inteligencia artificial (IA).

Los modelos de Gemma están disponibles para ejecutarse en tus aplicaciones y en tus hardware, dispositivos móviles o servicios alojados. También puedes personalizar estos modelos mediante técnicas de ajuste para que se destaquen en la realización de tareas que sean importantes para ti y tus usuarios. Los modelos de Gemma se basan en la inspiración y el linaje tecnológico de la familia de modelos de Gemini y se crearon para que la comunidad de desarrollo de IA se extienda y crezca.

Puedes usar modelos de Gemma para la generación de texto; sin embargo, también puedes ajustar estos modelos a fin de que se especialicen en la realización de tareas específicas. Los modelos de Gemma ajustados pueden proporcionar a ti y a tus usuarios soluciones de IA generativa más específicas y específicas. Consulta nuestra guía sobre ajuste con LoRA y pruébala. Estamos ansiosos por ver lo que compilarás con Gemma.

En esta documentación para desarrolladores, se proporciona una descripción general de los modelos de Gemma y las guías de desarrollo disponibles sobre cómo aplicarlos y ajustarlos para aplicaciones específicas.

Tamaños y capacidades de los modelos

Los modelos de Gemma están disponibles en varios tamaños para que puedas compilar soluciones de IA generativa en función de tus recursos de procesamiento disponibles, las capacidades que necesitas y el lugar en el que deseas ejecutarlos. Si no sabes por dónde comenzar, prueba el tamaño del parámetro 2B para los requisitos de recursos más bajos y una mayor flexibilidad en el lugar de implementación del modelo.

Tamaño de los parámetros Entrada Resultado Versiones ajustadas Plataformas previstas
2B Texto Texto
  • Con entrenamiento previo
  • Instrucción ajustada
Dispositivos móviles y laptops
7,000 millones Texto Texto
  • Con entrenamiento previo
  • Instrucción ajustada
Computadoras de escritorio y servidores pequeños

Con la función de copia de seguridad múltiple de Keras 3.0, puedes ejecutar estos modelos en TensorFlow, JAX y PyTorch, o incluso usar las implementaciones nativas de JAX (basado en el framework de FLAX) y PyTorch.

Puedes descargar los modelos de Gemma desde los modelos Kaggle.

Modelos ajustados

Puedes modificar el comportamiento de los modelos de Gemma con un entrenamiento adicional para que el modelo tenga un mejor rendimiento en tareas específicas. Este proceso se denomina ajuste de modelos y, si bien esta técnica mejora la capacidad de un modelo para realizar tareas segmentadas, también puede hacer que el modelo empeore en otras tareas. Por este motivo, los modelos de Gemma están disponibles en versiones ajustadas por instrucciones y previamente entrenadas:

  • Preentrenado: estas versiones del modelo no se entrenaron en ninguna tarea o instrucción específica más allá del conjunto de entrenamiento de datos principal de Gemma. No debes implementar estos modelos sin realizar algunos ajustes.
  • Ajuste de instrucciones: Estas versiones del modelo se entrenan con interacciones de lenguaje humano y pueden responder a entradas de conversación, de manera similar a un bot de chat.

Comenzar

Consulta estas guías para comenzar a crear soluciones con Gemma: