Modèles ouverts Gemma

Une famille de modèles ouverts, légers et à la pointe de la technologie, basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini

Icône "Conception responsable"

Conception responsable

En intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à une sélection d'ensembles de données et à des réglages rigoureux.

Icône Performances inégalées

Performances inégalées en termes de taille

Les modèles Gemma obtiennent des résultats de benchmark exceptionnels dans leurs tailles 2 milliards, 7 milliards, 9 milliards et 27 milliards, et surpassent même certains modèles ouverts plus importants.

Souplesse du framework

Souplesse du framework

Avec Keras 3.0, profitez d'une compatibilité totale avec JAX, TensorFlow et PyTorch, ce qui vous permet de choisir et de changer facilement de frameworks en fonction de votre tâche.

Découvrez
Gemma 2

Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 optimise l'inférence ultrarapide sur différents matériels.

5 shots

MMLU

Le benchmark MMLU est un test qui mesure l'étendue des connaissances et la capacité à résoudre des problèmes acquises par les grands modèles de langage lors du pré-entraînement.

25 shots

ARC-C

Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.

5 tirs

GSM8K

Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.

3-5-shot

AGIEval

Le benchmark AGIEval évalue l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.

3-shot, CoT

BBH

Le benchmark BBH (BIG-Bench Hard) se concentre sur les tâches jugées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans divers domaines de raisonnement et de compréhension.

3-shot, F1

DROP

DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.

5 tirs

Winogrande

Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.

10 shots

HellaSwag

Le benchmark HellaSwag met à l'épreuve la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en sélectionnant la fin la plus logique d'une histoire.

4 prises

MATH

MATH évalue la capacité d'un modèle de langage à résoudre des problèmes mathématiques complexes, qui nécessitent du raisonnement, la résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.

0 shot

ARC-e

Le benchmark ARC-e évalue les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.

Zero-shot

PIQA

Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.

0 shot

SIQA

Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.

0 shot

Boolq

Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions de type oui/non qui se posent naturellement, en testant la capacité du modèle à effectuer des tâches d'inférence en langage naturel réelles.

5 tirs

TriviaQA

Le benchmark TriviaQA évalue les compétences de compréhension de la lecture à l'aide de triples question-réponse-preuve.

5 tirs

NQ

Le benchmark NQ (Natural Questions) teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipedia entiers, en simulant des scénarios de questions-réponses réels.

pass@1

HumanEval

Le benchmark HumanEval teste les capacités de génération de code d'un modèle de langage en évaluant si ses solutions passent les tests unitaires fonctionnels pour les problèmes de programmation.

3 coups

MBPP

Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts de programmation fondamentaux et l'utilisation de la bibliothèque standard.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma 1

2,5 Mrds

42.3

Gemma 2

2,6 Mrds

51,3

Mistral

7 Mrds

62,5

LLAMA 3

8 B

66,6

Gemma 1

7B

64,4

Gemma 2

9 milliards

71,3

Gemma 2

27 Mrds

75,2

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Mrds

55.4

Mistral

7 Mrds

60.5

LLAMA 3

8 Mrds

59,2

Gemma 1

7B

61.1

Gemma 2

9 milliards

68,4

Gemma 2

27 Mrds

71,4

Gemma 1

2,5 Mrds

15.1

Gemma 2

2,6 Md

23,9

Mistral

7 Mrds

39,6

LLAMA 3

8 Mrds

45.7

Gemma 1

7 Mrds

51,8

Gemma 2

9 milliards

68,6

Gemma 2

27 Mrds

74,0

Gemma 1

2,5 Mrds

24,2

Gemma 2

2,6 Mrds

30,6

Mistral

7B

44,0

LLAMA 3

8 Mrds

45.9

Gemma 1

7 Mrds

44,9

Gemma 2

9 milliards

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 Mrds

35,2

Gemma 2

2,6 Md

41.9

Mistral

7B

56

LLAMA 3

8 B

61,1

Gemma 1

7 Mrds

59

Gemma 2

9 milliards

68.2

Gemma 2

27 Mrds

74.9

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Md

52

Mistral

7 Mrds

63,8

LLAMA 3

8 Mrds

58.4

Gemma 1

7 Mrds

56,3

Gemma 2

9 milliards

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 Mrds

66,8

Gemma 2

2,6 Mrds

70,9

Mistral

7 Mrds

78,5

LLAMA 3

8 B

76,1

Gemma 1

7B

79,0

Gemma 2

9 milliards

80,6

Gemma 2

27 Mrds

83,7

Gemma 1

2,5 Mrds

71,7

Gemma 2

2,6 Mrds

73,0

Mistral

7B

83,0

LLAMA 3

8 Mrds

82,0

Gemma 1

7B

82,3

Gemma 2

9 milliards

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 Mrds

11.8

Gemma 2

2,6 Mrds

15,0

Mistral

7B

12.7

Gemma 1

7 Mrds

24,3

Gemma 2

9 milliards

36,6

Gemma 2

27 Mrds

42.3

Gemma 1

2,5 Mrds

73,2

Gemma 2

2,6 Mrds

80,1

Mistral

7 Mrds

80,5

Gemma 1

7B

81,5

Gemma 2

9 milliards

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 Mrds

77,3

Gemma 2

2,6 Mrds

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 milliards

81,7

Gemma 2

27 Mrds

83,2

Gemma 1

2,5 Mrds

49,7

Gemma 2

2,6 Md

51,9

Mistral

7 Mrds

47,0

Gemma 1

7 Mrds

51,8

Gemma 2

9 milliards

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 Mrds

69,4

Gemma 2

2,6 Mrds

72,5

Mistral

7B

83,2

Gemma 1

7 Mrds

83,2

Gemma 2

9 milliards

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 Mrds

53.2

Gemma 2

2,6 Mrds

59,4

Mistral

7 Mrds

62,5

Gemma 1

7B

63,4

Gemma 2

9 milliards

76,6

Gemma 2

27 Mrds

83,7

Gemma 1

2,5 Mrds

12,5

Gemma 2

2,6 Md

16,7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9 milliards

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 Mrds

22.0

Gemma 2

2,6 Md

17.7

Mistral

7B

26,2

Gemma 1

7B

32,3

Gemma 2

9 milliards

40,2

Gemma 2

27 Mrds

51,8

Gemma 1

2,5 Mrds

29,2

Gemma 2

2,6 Md

29,6

Mistral

7 Mrds

40,2

Gemma 1

7 Mrds

44,4

Gemma 2

9 milliards

52,4

Gemma 2

27 Mrds

62,6

* Il s'agit des benchmarks pour les modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.

Famille de modèles Gemma

Nouvelle version

Gemma 2

Gemma 2 propose trois nouveaux modèles puissants et efficaces disponibles avec 2, 9 et 27 milliards de tailles de paramètres, le tout avec des améliorations de sécurité intégrées.

Nouvelle version

DataGemma

DataGemma est le premier modèle ouvert conçu pour connecter les LLM à de vastes données réelles issues du Data Commons de Google.

Gemma 1

Les modèles Gemma sont de grands modèles de langage légers, de texte à texte et basés uniquement sur un décodeur. Ils sont entraînés sur un vaste ensemble de données de texte, de code et de contenus mathématiques pour réaliser diverses tâches de traitement du langage naturel.

RecurrentGemma

RecurrentGemma est un modèle techniquement distinct qui exploite les réseaux de neurones récurrents et l'attention locale pour améliorer l'efficacité de la mémoire.

PaliGemma

PaliGemma est un modèle de vision-langage ouvert inspiré de PaLI-3, qui exploite SigLIP et Gemma. Il a été conçu comme un modèle polyvalent à transférer vers un large éventail de tâches de vision-langage.

CodeGemma

En s'appuyant sur nos modèles Gemma d'origine pré-entraînés, CodeGemma propose des fonctionnalités puissantes de saisie et de génération de code dans des tailles adaptées à votre ordinateur local.

Guides de démarrage rapide pour les développeurs

Livre de recettes Gemma

Découvrez une collection de recettes et d'exemples pratiques qui mettent en avant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma optimisés.

Développement d'IA responsable

Responsabilité dès la conception

Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.

Évaluation robuste et transparente

Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.

Favoriser un développement responsable

Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.

Icône Google Cloud

Optimisé pour Google Cloud

Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.

Accélérer la recherche universitaire avec les crédits Google Cloud

Le programme de recherche universitaire a récemment clôturé sa période de candidature. Il a attribué des crédits Google Cloud pour aider les chercheurs à repousser les limites de la découverte scientifique à l'aide de modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.

Ne manquez pas les prochaines opportunités de faire progresser vos recherches avec Google Cloud.

Rejoindre la communauté

Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.