Modèles ouverts Gemma
Une famille de modèles ouverts légers et de pointe conçus à partir des recherches et des technologies utilisées pour créer les modèles Gemini
Découvrez
Gemma 2
Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 est optimisé pour des inférences à une vitesse fulgurante sur divers matériels.
5 shots
MMLU
Le benchmark MMLU est un test qui mesure l'étendue des connaissances et des capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.
25 shots
ARC-C
Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.
5 shots
GSM8K
Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.
3 à 5 shots
AGIEval
Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.
3-shot, CoT
BBH
Le benchmark BBH (BIG-Bench Hard) se concentre sur des tâches considérées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans différents domaines de raisonnement et de compréhension.
3-shot, F1
DROP
DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.
5 shots
Winogrande
Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.
10 shots
HellaSwag
Le benchmark HellaSwag met en question la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en choisissant la fin la plus logique d'une histoire.
4 prises
MATH
MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.
0 shot
ARC-e
Le benchmark ARC-e teste les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.
0 shot
PIQA
Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.
0 shot
SIQA
Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.
0 shot
Boolq
Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions de type oui/non qui se posent naturellement, en testant la capacité du modèle à effectuer des tâches d'inférence en langage naturel réelles.
5 shots
TriviaQA
Le benchmark TriviaQA évalue les compétences de compréhension en lecture avec des triples des questions-réponses-preuve.
5 shots
NQ
L'analyse comparative des questions naturelles teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipédia entiers, en simulant des scénarios réels de réponse à des questions.
passe@1
HumanEval
Le benchmark HumanEval teste la capacité de génération de code d'un modèle de langage en évaluant si ses solutions réussissent les tests unitaires fonctionnels pour les problèmes de programmation.
3 shots
MBPP
Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts fondamentaux de la programmation et l'utilisation des bibliothèques standards.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
LLAMA 3
8 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
Gemma 1
2,5 Mrds
Gemma 2
2,6 Mrds
Mistral
7 Mrds
Gemma 1
7 Mrds
Gemma 2
9 milliards
Gemma 2
27 Mrds
*Il s'agit des valeurs de référence des modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.
Famille de modèles Gemma
Découvrez nos outils
Guides de démarrage rapide pour les développeurs
Guides de démarrage rapide pour les partenaires
Livre de recettes Gemma
Explorez une collection de recettes pratiques et d'exemples montrant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma affinés.
Développement d'IA responsable
Responsabilité dès la conception
Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.
Évaluation robuste et transparente
Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.
Favoriser un développement responsable
Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.
Optimisé pour Google Cloud
Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.
Accélérer la recherche universitaire avec les crédits Google Cloud
Le programme de recherche universitaire a récemment clos sa période de candidature, en attribuant des crédits Google Cloud pour aider les chercheurs qui repoussent les limites de la découverte scientifique à l'aide des modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.
Rejoindre la communauté
Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.