Présentation des modèles Gemma

Gemma est une famille de modèles ouverts légers et de pointe, construits à partir des mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini. Développée par Google DeepMind et d'autres équipes Google, Gemma porte le nom du latin gemma, qui signifie "pierre précieuse". Les pondérations du modèle Gemma sont compatibles avec des outils pour les développeurs qui favorisent l'innovation, la collaboration et l'utilisation responsable de l'intelligence artificielle (IA).

Les modèles Gemma peuvent être exécutés dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches importantes pour vous et vos utilisateurs. Les modèles Gemma s'inspirent et constituent une traçabilité technologique de la famille de modèles Gemini. Ils sont conçus pour étendre et étendre la communauté des développeurs d'IA.

Vous pouvez utiliser les modèles Gemma pour générer du texte, mais vous pouvez également les régler pour vous spécialiser dans l'exécution de tâches spécifiques. Les modèles Gemma réglés peuvent vous fournir, à vous et à vos utilisateurs, des solutions d'IA générative plus ciblées et efficaces. Consultez notre guide sur le réglage avec LoRA et essayez-le ! Nous avons hâte de découvrir ce que vous allez créer avec Gemma !

Cette documentation destinée aux développeurs présente les modèles Gemma et les guides de développement disponibles pour apprendre à les appliquer et à les régler pour des applications spécifiques.

Tailles et capacités des modèles

Les modèles Gemma sont disponibles en plusieurs tailles pour vous permettre de créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des capacités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Si vous ne savez pas par où commencer, essayez la taille de paramètre de 2 milliards pour bénéficier de ressources moins importantes et d'une plus grande flexibilité pour déployer le modèle.

Taille des paramètres Entrée Résultat Versions ajustées Plates-formes visées
2 milliards Texte Texte
  • Solutions pré-entraînées
  • Instruction réglée
Appareils mobiles et ordinateurs portables
7 Mrds Texte Texte
  • Solutions pré-entraînées
  • Instruction réglée
Ordinateurs de bureau et petits serveurs

Grâce à la fonctionnalité à plusieurs sauvegardes de Keras 3.0, vous pouvez exécuter ces modèles sur TensorFlow, JAX et PyTorch, ou même utiliser les implémentations natives de JAX (basées sur le framework FLAX) et PyTorch.

Vous pouvez télécharger les modèles Gemma à partir des modèles Kaggle.

Modèles réglés

Vous pouvez modifier le comportement des modèles Gemma en effectuant un entraînement supplémentaire afin que les modèles soient plus efficaces sur certaines tâches. Ce processus est appelé réglage de modèle. Bien que cette technique améliore la capacité d'un modèle à effectuer des tâches ciblées, elle peut également l'aggraver lors d'autres tâches. Pour cette raison, les modèles Gemma sont disponibles en version adaptée aux instructions et pré-entraînée:

  • Pré-entraîné : ces versions du modèle ne sont pas entraînées sur des tâches ou des instructions spécifiques en dehors de l'ensemble d'entraînement de données principal de Gemma. Vous ne devez pas déployer ces modèles sans avoir effectué quelques réglages.
  • Ajustement des instructions : ces versions du modèle sont entraînées avec des interactions avec le langage humain et peuvent répondre à des entrées conversationnelles, comme un chatbot.

Premiers pas

Consultez ces guides pour commencer à créer des solutions avec Gemma: