Modèles ouverts Gemma

Une famille de modèles ouverts légers et de pointe conçus à partir des recherches et des technologies utilisées pour créer les modèles Gemini

<ph type="x-smartling-placeholder"></ph> Commencer
Icône &quot;Conception responsable&quot;

Conception responsable

En intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à une sélection d'ensembles de données et à des réglages rigoureux.

Icône Performances inégalées

Performances inégalées en termes de taille

Les modèles Gemma obtiennent des résultats de benchmark exceptionnels dans leurs tailles 2 milliards, 7 milliards, 9 milliards et 27 milliards, et surpassent même certains modèles ouverts plus importants.

Cadre flexible

Cadre flexible

Avec Keras 3.0, profitez d'une compatibilité totale avec JAX, TensorFlow et PyTorch, ce qui vous permet de choisir et de changer facilement de frameworks en fonction de votre tâche.

Découvrez
Gemma 2

Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 est optimisé pour des inférences à une vitesse fulgurante sur divers matériels.

<ph type="x-smartling-placeholder"></ph> Essayez Gemma 2 dans Google AI Studio

5 shots

MMLU

Le benchmark MMLU est un test qui mesure l'étendue des connaissances et des capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.

25 shots

ARC-C

Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.

5 shots

GSM8K

Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.

3 à 5 shots

AGIEval

Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.

3-shot, CoT

BBH

Le benchmark BBH (BIG-Bench Hard) se concentre sur des tâches considérées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans différents domaines de raisonnement et de compréhension.

3-shot, F1

DROP

DROP est un benchmark de compréhension en lecture qui nécessite un raisonnement discret sur des paragraphes.

5 shots

Winogrande

Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.

10 shots

HellaSwag

Le benchmark HellaSwag met en question la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en choisissant la fin la plus logique d'une histoire.

4 prises

MATH

MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.

0 shot

ARC-e

Le benchmark ARC-e teste les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.

0 shot

PIQA

Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.

0 shot

SIQA

Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.

0 shot

Boolq

Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions de type oui/non qui se posent naturellement, en testant la capacité du modèle à effectuer des tâches d'inférence en langage naturel réelles.

5 shots

TriviaQA

Le benchmark TriviaQA évalue les compétences de compréhension en lecture avec des triples des questions-réponses-preuve.

5 shots

NQ

L'analyse comparative des questions naturelles teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipédia entiers, en simulant des scénarios réels de réponse à des questions.

passe@1

HumanEval

Le benchmark HumanEval teste la capacité de génération de code d'un modèle de langage en évaluant si ses solutions réussissent les tests unitaires fonctionnels pour les problèmes de programmation.

3 shots

MBPP

Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts fondamentaux de la programmation et l'utilisation des bibliothèques standards.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma 1

2,5 Mrds

42.3

Gemma 2

2,6 Mrds

51,3

Mistral

7 Mrds

62,5

LLAMA 3

8 Mrds

66,6

Gemma 1

7 Mrds

64,4

Gemma 2

9 milliards

71,3

Gemma 2

27 Mrds

75,2

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Mrds

55,4

Mistral

7 Mrds

60.5

LLAMA 3

8 Mrds

59,2

Gemma 1

7 Mrds

61,1

Gemma 2

9 milliards

68,4

Gemma 2

27 Mrds

71,4

Gemma 1

2,5 Mrds

15.1

Gemma 2

2,6 Mrds

23,9

Mistral

7 Mrds

39,6

LLAMA 3

8 Mrds

45.7

Gemma 1

7 Mrds

51,8

Gemma 2

9 milliards

68,6

Gemma 2

27 Mrds

74,0

Gemma 1

2,5 Mrds

24,2

Gemma 2

2,6 Mrds

30,6

Mistral

7 Mrds

44,0

LLAMA 3

8 Mrds

45.9

Gemma 1

7 Mrds

44,9

Gemma 2

9 milliards

52,8

Gemma 2

27 Mrds

55.1

Gemma 1

2,5 Mrds

35,2

Gemma 2

2,6 Mrds

41.9

Mistral

7 Mrds

56,0

LLAMA 3

8 Mrds

61,1

Gemma 1

7 Mrds

59,0

Gemma 2

9 milliards

68.2

Gemma 2

27 Mrds

74.9

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Mrds

52,0

Mistral

7 Mrds

63,8

LLAMA 3

8 Mrds

58.4

Gemma 1

7 Mrds

56,3

Gemma 2

9 milliards

69,4

Gemma 2

27 Mrds

74,2

Gemma 1

2,5 Mrds

66,8

Gemma 2

2,6 Mrds

70,9

Mistral

7 Mrds

78,5

LLAMA 3

8 Mrds

76,1

Gemma 1

7 Mrds

79,0

Gemma 2

9 milliards

80,6

Gemma 2

27 Mrds

83,7

Gemma 1

2,5 Mrds

71,7

Gemma 2

2,6 Mrds

73,0

Mistral

7 Mrds

83,0

LLAMA 3

8 Mrds

82,0

Gemma 1

7 Mrds

82,3

Gemma 2

9 milliards

81,9

Gemma 2

27 Mrds

86,4

Gemma 1

2,5 Mrds

11.8

Gemma 2

2,6 Mrds

15,0

Mistral

7 Mrds

12.7

Gemma 1

7 Mrds

24,3

Gemma 2

9 milliards

36,6

Gemma 2

27 Mrds

42.3

Gemma 1

2,5 Mrds

73,2

Gemma 2

2,6 Mrds

80,1

Mistral

7 Mrds

80,5

Gemma 1

7 Mrds

81,5

Gemma 2

9 milliards

88,0

Gemma 2

27 Mrds

88,6

Gemma 1

2,5 Mrds

77,3

Gemma 2

2,6 Mrds

77,8

Mistral

7 Mrds

82,2

Gemma 1

7 Mrds

81,2

Gemma 2

9 milliards

81,7

Gemma 2

27 Mrds

83,2

Gemma 1

2,5 Mrds

49,7

Gemma 2

2,6 Mrds

51,9

Mistral

7 Mrds

47,0

Gemma 1

7 Mrds

51,8

Gemma 2

9 milliards

53,4

Gemma 2

27 Mrds

53,7

Gemma 1

2,5 Mrds

69,4

Gemma 2

2,6 Mrds

72,5

Mistral

7 Mrds

83,2

Gemma 1

7 Mrds

83,2

Gemma 2

9 milliards

84,2

Gemma 2

27 Mrds

84,8

Gemma 1

2,5 Mrds

53.2

Gemma 2

2,6 Mrds

59,4

Mistral

7 Mrds

62,5

Gemma 1

7 Mrds

63,4

Gemma 2

9 milliards

76,6

Gemma 2

27 Mrds

83,7

Gemma 1

2,5 Mrds

12,5

Gemma 2

2,6 Mrds

16,7

Mistral

7 Mrds

23.2

Gemma 1

7 Mrds

23.0

Gemma 2

9 milliards

29,2

Gemma 2

27 Mrds

34,5

Gemma 1

2,5 Mrds

22.0

Gemma 2

2,6 Mrds

17.7

Mistral

7 Mrds

26,2

Gemma 1

7 Mrds

32,3

Gemma 2

9 milliards

40,2

Gemma 2

27 Mrds

51,8

Gemma 1

2,5 Mrds

29,2

Gemma 2

2,6 Mrds

29,6

Mistral

7 Mrds

40,2

Gemma 1

7 Mrds

44,4

Gemma 2

9 milliards

52,4

Gemma 2

27 Mrds

62,6

*Il s'agit des valeurs de référence des modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.

<ph type="x-smartling-placeholder"></ph> Lire le rapport technique

Guides de démarrage rapide pour les développeurs

Livre de recettes Gemma

Explorez une collection de recettes pratiques et d'exemples montrant la puissance et la polyvalence de Gemma pour des tâches telles que le sous-titrage d'images avec PaliGemma, la génération de code avec CodeGemma et la création de chatbots avec des modèles Gemma affinés.

<ph type="x-smartling-placeholder"></ph> En cuisine

Développement d'IA responsable

Responsabilité dès la conception

Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.

Évaluation robuste et transparente

Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.

Favoriser un développement responsable

Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.

<ph type="x-smartling-placeholder"></ph> Découvrir le kit d'IA responsable
Icône Google Cloud

Optimisé pour Google Cloud

Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.

<ph type="x-smartling-placeholder"></ph> En savoir plus sur le blog Google Cloud

Accélérer la recherche universitaire avec les crédits Google Cloud

Le programme de recherche universitaire a récemment clos sa période de candidature, en attribuant des crédits Google Cloud pour aider les chercheurs qui repoussent les limites de la découverte scientifique à l'aide des modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.

Ne manquez pas les prochaines opportunités de faire avancer vos recherches avec Google Cloud.

Rejoindre la communauté

Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.