Offene Gemma-Modelle

Eine Familie leichter, hochmoderner offener Modelle, die auf derselben Forschung und Technologie basieren, die auch für die Erstellung der Gemini-Modelle verwendet wird

Symbol „Von Grund auf verantwortungsbewusst“

Von Grund auf verantwortungsbewusst

Mit umfassenden Sicherheitsmaßnahmen tragen diese Modelle durch sorgfältig zusammengestellte Datasets und eine gründliche Feinabstimmung zu verantwortungsbewussten und vertrauenswürdigen KI-Lösungen bei.

Symbol für unübertroffene Leistung

Unübertroffene Leistung bei jeder Größe

Gemma-Modelle erzielen mit 2B, 7B, 9B und 27 Mrd. Größen außergewöhnliche Benchmark-Ergebnisse und übertreffen einige größere offene Modelle.

Flexibles Framework

Flexibles Framework

Keras 3.0 ist nahtlos mit JAX, TensorFlow und PyTorch kompatibel, sodass Sie mühelos Frameworks auswählen und je nach Aufgabe wechseln können.

Jetzt neu:
Gemma 2

Gemma 2 wurde für eine überragende Leistung und unvergleichliche Effizienz neu entwickelt und optimiert für blitzschnelle Inferenzen auf verschiedener Hardware.

5 Aufnahme

MMLU

Die MMLU-Benchmark ist ein Test, der das Umfang des Wissens und der Problemlösungsfähigkeiten misst, die von Large Language Models während des Vortrainings erworben wurden.

25 Aufnahme

ARC-C

Der ARC-c-Benchmark ist eine fokussiertere Teilmenge des ARC-e-Datasets, die nur Fragen enthält, die von gängigen Algorithmen (Retrieval-basierte und Wortkooccurrence) falsch beantwortet wurden.

5 Aufnahme

GSM8K

Mit dem GSM8K-Benchmark wird die Fähigkeit eines Sprachmodells getestet, Mathematikaufgaben auf Grundschulniveau zu lösen, die häufig mehrere Schritte der Argumentation erfordern.

3–5-Aufnahmen

AGIEval

Der AGIEval-Benchmark testet die allgemeine Intelligenz eines Sprachmodells anhand von Fragen, die aus realen Prüfungen zur Bewertung der menschlichen geistigen Fähigkeiten abgeleitet wurden.

3-Shot, CoT

BBH

Der BBH-Benchmark (BIG-Bench Hard) konzentriert sich auf Aufgaben, die über die Fähigkeiten der aktuellen Sprachmodelle hinausgehen, und testet ihre Grenzen in verschiedenen Bereichen der Argumentation und des Verständnisses.

Drei Aufnahme, F1

DROP

DROP ist ein Leseverständnis-Benchmark, der eine diskrete Argumentation über Absätze erfordert.

5-Shot

Winogrande

Der Winogrande-Benchmark testet die Fähigkeit eines Language Models, mehrdeutige Ausfüllaufgaben mit binären Optionen zu lösen, die allgemeine allgemeine Begründungen erfordern.

10-Shot

HellaSwag

Der HellaSwag-Benchmark fordert die Fähigkeit eines Sprachmodells, gesunde Schlussfolgerungen zu verstehen und anzuwenden, indem das logische Ende einer Geschichte ausgewählt wird.

4 Aufnahme

MATH

MATH prüft die Fähigkeit eines Sprachmodells, komplexe mathematische Textaufgaben zu lösen, die Logik, mehrstufige Problemlösung und das Verständnis mathematischer Konzepte erfordern.

0-Shot

ARC-e

Der ARC-e-Benchmark testet die fortgeschrittenen Fähigkeiten eines Language Models zum Beantworten von Fragen mit echten Multiple-Choice-Fragen für Schulkinder.

0-Shot

PIQA

Der PIQA-Benchmark testet die Fähigkeit eines Sprachmodells, physisches allgemeines Wissen zu verstehen und anzuwenden, indem Fragen zu alltäglichen physischen Interaktionen beantwortet werden.

0-Shot

SIQA

Der SIQA-Benchmark bewertet das Verständnis eines Sprachmodells für soziale Interaktionen und sozialen gesunden Menschenverstand, indem Fragen zu den Handlungen von Menschen und ihren sozialen Auswirkungen gestellt werden.

0-Shot

Boolescher Wert

Mit dem BoolQ-Benchmark wird die Fähigkeit eines Sprachmodells zur Beantwortung natürlich auftretender Ja-/Nein-Fragen getestet. Dabei wird die Fähigkeit des Modells getestet, reale Inferenzaufgaben für natürliche Sprache auszuführen.

5 Aufnahme

TriviaQA

Der TriviaQA-Benchmark testet das Leseverständnis mit Dreiergruppen aus Frage, Antwort und Beleg.

5-Shot

NQ

Der NQ-Benchmark (Natürliche Fragen) testet die Fähigkeit eines Sprachmodells, Antworten in ganzen Wikipedia-Artikeln zu finden und zu verstehen, und simuliert dabei reale Szenarien für die Beantwortung von Fragen.

Pass@1

HumanEval

Der HumanEval-Benchmark testet die Fähigkeiten eines Language Models zur Codegenerierung, indem er bewertet, ob seine Lösungen funktionale Einheitentests für Programmierprobleme bestehen.

Drei Aufnahme

MBPP

Der MBPP-Benchmark testet die Fähigkeit eines Sprachmodells, grundlegende Python-Programmierprobleme zu lösen, und konzentriert sich dabei auf grundlegende Programmierkonzepte und die Verwendung von Standardbibliotheken.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma 1

2,5 Mrd.

42,3

Gemma 2

2,6 Mrd.

51,3

Mistral

7B

62,5

LLAMA 3

8 Mrd.

66,6

Gemma 1

7B

64,4

Gemma 2

9 Mrd.

71,3

Gemma 2

27 Mrd.

75,2

Gemma 1

2,5 Mrd.

48,5

Gemma 2

2,6 Mrd.

55,4

Mistral

7B

60.5

LLAMA 3

8 Mrd.

59,2

Gemma 1

7 Mrd.

61,1

Gemma 2

9 Mrd.

68,4

Gemma 2

27 Mrd.

71,4

Gemma 1

2,5 Mrd.

15.1

Gemma 2

2,6 Mrd.

23,9

Mistral

7B

39,6

LLAMA 3

8 Mrd.

45,7

Gemma 1

7 Mrd.

51,8

Gemma 2

9 Mrd.

68,6

Gemma 2

27B

74,0

Gemma 1

2,5 Mrd.

24,2

Gemma 2

2,6 Mrd.

30,6

Mistral

7 Mrd.

44,0

LLAMA 3

8 Mrd.

45,9

Gemma 1

7B

44,9

Gemma 2

9 Mrd.

52,8

Gemma 2

27B

55,1

Gemma 1

2,5 Mrd.

35.2

Gemma 2

2,6 Mrd.

41,9

Mistral

7 Mrd.

56,0

LLAMA 3

8 Mrd.

61,1

Gemma 1

7B

59,0

Gemma 2

9 Mrd.

68,2

Gemma 2

27 Mrd.

74,9

Gemma 1

2,5 Mrd.

48,5

Gemma 2

2,6 Mrd.

52,0

Mistral

7 Mrd.

63,8

LLAMA 3

8 Mrd.

58,4

Gemma 1

7B

56,3

Gemma 2

9 Mrd.

69,4

Gemma 2

27 Mrd.

74,2

Gemma 1

2,5 Mrd.

66,8

Gemma 2

2,6 Mrd.

70,9

Mistral

7 Mrd.

78,5

LLAMA 3

8 Mrd.

76,1

Gemma 1

7 Mrd.

79,0

Gemma 2

9 Mrd.

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrd.

71,7

Gemma 2

2,6 Mrd.

73,0

Mistral

7 Mrd.

83

LLAMA 3

8 Mrd.

82,0

Gemma 1

7B

82,3

Gemma 2

9 Mrd.

81,9

Gemma 2

27 Mrd.

86,4

Gemma 1

2,5 Mrd.

11.8

Gemma 2

2,6 Mrd.

15.0

Mistral

7B

12.7

Gemma 1

7B

24,3

Gemma 2

9 Mrd.

36,6

Gemma 2

27 Mrd.

42,3

Gemma 1

2,5 Mrd.

73,2

Gemma 2

2,6 Mrd.

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 Mrd.

88,0

Gemma 2

27 Mrd.

88,6

Gemma 1

2,5 Mrd.

77,3

Gemma 2

2,6 Mrd.

77,8

Mistral

7B

82,2

Gemma 1

7 Mrd.

81,2

Gemma 2

9 Mrd.

81,7

Gemma 2

27 Mrd.

83,2

Gemma 1

2,5 Mrd.

49,7

Gemma 2

2,6 Mrd.

51,9

Mistral

7 Mrd.

47,0

Gemma 1

7 Mrd.

51,8

Gemma 2

9 Mrd.

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 Mrd.

69,4

Gemma 2

2,6 Mrd.

72,5

Mistral

7 Mrd.

83,2

Gemma 1

7 Mrd.

83,2

Gemma 2

9 Mrd.

84,2

Gemma 2

27 Mrd.

84,8

Gemma 1

2,5 Mrd.

53,2

Gemma 2

2,6 Mrd.

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 Mrd.

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrd.

12,5

Gemma 2

2,6 Mrd.

16,7

Mistral

7B

23.2

Gemma 1

7B

23,0

Gemma 2

9 Mrd.

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 Mrd.

22,0

Gemma 2

2,6 Mrd.

17.7

Mistral

7B

26,2

Gemma 1

7 Mrd.

32,3

Gemma 2

9 Mrd.

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 Mrd.

29,2

Gemma 2

2,6 Mrd.

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 Mrd.

52,4

Gemma 2

27B

62,6

* Dies sind die Benchmarks für die vorab trainierten Modelle. Details zur Leistung mit anderen Methoden finden Sie im technischen Bericht.

Gemma-Modellfamilie

Neuer Release

Gemma 2

Gemma 2 bietet drei neue, leistungsstarke und effiziente Modelle mit 2, 9 und 27 Milliarden Parametergrößen – alle mit integrierten Sicherheitsfunktionen.

Neuer Release

DataGemma

DataGemma sind die ersten offenen Modelle, die LLMs mit umfangreichen realen Daten aus Google Data Commons verbinden.

Gemma 1

Gemma-Modelle sind einfache Large Language Models, die nur aus Text zu Text bestehen und nur Decoder enthalten. Sie wurden mit einem riesigen Dataset aus Text, Code und mathematischen Inhalten für eine Vielzahl von Natural Language Processing-Aufgaben trainiert.

RecurrentGemma

RecurrentGemma ist ein technisch einzigartiges Modell, das wiederkehrende neuronale Netzwerke und lokale Aufmerksamkeit nutzt, um die Speichereffizienz zu verbessern.

PaliGemma

PaliGemma ist ein offenes Modell für die Kombination von Sprache und Bild, das von PaLI-3 inspiriert wurde und SigLIP und Gemma nutzt. Es wurde als vielseitiges Modell für die Übertragung auf eine Vielzahl von Aufgaben im Bereich Sprache und Bild entwickelt.

CodeGemma

CodeGemma basiert auf unseren ursprünglichen vortrainierten Gemma-Modellen und bietet leistungsstarke Funktionen zur Codevervollständigung und ‐generierung in den Größen, die für Ihren lokalen Computer geeignet sind.

Kurzanleitungen für Entwickler

Gemma-Rezepte

Hier finden Sie eine Sammlung praktischer Rezepte und Beispiele, die die Leistungsfähigkeit und Vielseitigkeit von Gemma für Aufgaben wie Bildunterschriften mit PaliGemma, Codegenerierung mit CodeGemma und das Erstellen von Chatbots mit optimierten Gemma-Modellen zeigen.

Verantwortungsbewusste Entwicklung von KI

Verantwortungsbewusstsein von Anfang an

Sie sind auf sorgfältig ausgewählten Daten vortrainiert und zusätzlich auf Sicherheit optimiert. So können Sie mit Gemma-Modellen eine sichere und verantwortungsvolle KI entwickeln.

Robuste und transparente Bewertung

Umfassende Bewertungen und transparente Berichterstattung zeigen die Grenzen des Modells auf, die für einen verantwortungsvollen Ansatz für jeden Anwendungsfall erforderlich ist.

Für eine verantwortungsbewusste Entwicklung

Das Toolkit für verantwortungsbewusste generative KI unterstützt Entwickler dabei, Best Practices für die verantwortungsbewusste Anwendung von KI zu entwickeln und umzusetzen.

Symbol: Google Cloud

Für Google Cloud optimiert

Mit Gemma-Modellen in Google Cloud können Sie das Modell mit den vollständig verwalteten Tools von Vertex AI oder der selbst verwalteten Option von GKE an Ihre spezifischen Anforderungen anpassen und in einer flexiblen und kosteneffizienten KI-optimierten Infrastruktur bereitstellen.

Beschleunigung der akademischen Forschung mit Google Cloud-Guthaben

Die Bewerbungsfrist für das Programm für akademische Forschung ist vor Kurzem abgelaufen. Wir haben Google Cloud-Guthaben an Forscher vergeben, die mithilfe von Gemma-Modellen die Grenzen der Wissenschaft erweitern. Wir sind gespannt auf die wegweisenden Forschungsergebnisse, die aus dieser Initiative hervorgehen werden.

Wir halten Sie über zukünftige Möglichkeiten zur Förderung Ihrer Forschung mit Google Cloud auf dem Laufenden.

Community beitreten

Vernetzen, entdecken und Ihr Wissen mit anderen in der Community für ML-Modelle teilen.