Modèles ouverts Gemma
Une famille de modèles ouverts, légers et à la pointe de la technologie, basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini
Découvrez
Gemma 2
Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 optimise l'inférence ultrarapide sur différents matériels.
5 shots
MMLU
Le benchmark MMLU est un test qui mesure l'étendue des connaissances et la capacité à résoudre des problèmes acquises par les grands modèles de langage lors du pré-entraînement.
25 shots
ARC-C
Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.
5 tirs
GSM8K
Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.
3-5-shot
AGIEval
Le benchmark AGIEval évalue l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.
3-shot, CoT
BBH
Le benchmark BBH (BIG-Bench Hard) se concentre sur les tâches jugées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans divers domaines de raisonnement et de compréhension.
3-shot, F1
DROP
DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.
5 tirs
Winogrande
Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.
10 shots
HellaSwag
Le benchmark HellaSwag met à l'épreuve la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en sélectionnant la fin la plus logique d'une histoire.
4 prises
MATH
MATH évalue la capacité d'un modèle de langage à résoudre des problèmes mathématiques complexes, qui nécessitent du raisonnement, la résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.
0 shot
ARC-e
Le benchmark ARC-e évalue les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.
Zero-shot
PIQA
Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.
0 shot
SIQA
Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.
0 shot
Boolq
Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions de type oui/non qui se posent naturellement, en testant la capacité du modèle à effectuer des tâches d'inférence en langage naturel réelles.
5 tirs
TriviaQA
Le benchmark TriviaQA évalue les compétences de compréhension de la lecture à l'aide de triples question-réponse-preuve.
5 tirs
NQ
Le benchmark NQ (Natural Questions) teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipedia entiers, en simulant des scénarios de questions-réponses réels.
pass@1
HumanEval
Le benchmark HumanEval teste les capacités de génération de code d'un modèle de langage en évaluant si ses solutions passent les tests unitaires fonctionnels pour les problèmes de programmation.
3 coups
MBPP
Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts de programmation fondamentaux et l'utilisation de la bibliothèque standard.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
LLAMA 3
8 B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
LLAMA 3
8 Mrds
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7B
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27B
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7B
Gemma 1
7B
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Md
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
* Il s'agit des benchmarks pour les modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.
Famille de modèles Gemma
Explorer nos outils
Guides de démarrage rapide pour les développeurs
Guides de démarrage rapide pour les partenaires
Livre de recettes Gemma
Découvrez une collection de recettes et d'exemples pratiques qui mettent en avant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma optimisés.
Développement d'IA responsable
Responsabilité dès la conception
Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.
Évaluation robuste et transparente
Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.
Favoriser un développement responsable
Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.
Optimisé pour Google Cloud
Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.
Accélérer la recherche universitaire avec les crédits Google Cloud
Le programme de recherche universitaire a récemment clôturé sa période de candidature. Il a attribué des crédits Google Cloud pour aider les chercheurs à repousser les limites de la découverte scientifique à l'aide de modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.
Rejoindre la communauté
Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.