Gemma Open Models

Rodzina lekkiego, nowoczesnego modelu otwartego stworzonego na podstawie tych samych badań i technologii, które posłużyły do stworzenia modeli Gemini

Ikona odpowiedzialnego projektowania

Odpowiedzialna konstrukcja

Dzięki kompleksowym środkom bezpieczeństwa modele te pomagają zapewnić odpowiedzialne i godne zaufania rozwiązania AI dzięki starannie dobranym zbiorom danych i rygorystycznej regulacji.

Ikona niezgodnego działania

Niezrównana wydajność

Modele Gemma osiągają wyjątkowe wyniki w przypadku rozmiarów 2B, 7B, 9B i 27B, a nawet przewyższają wyniki niektórych większych otwartych modeli.

Elastyczna struktura

Elastyczna struktura

Keras 3.0 zapewnia pełną zgodność z JAX, TensorFlow i PyTorchem, pozwalając na łatwe wybieranie i przełączanie platform zależnie od zadania.

Przedstawiamy
Gemma 2

Gemma 2 została zaprojektowana z myślą o wyjątkowej wydajności i niespotykanej efektywności. Optymalizuje szybkie wnioskowanie na różnych rodzajach sprzętu.

5-shot

MMLU

Test porównawczy MMLU to test mający na celu ocenę zakresu wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego trenowania.

25-shot

ARC-C

Test porównawczy ARC-c to bardziej precyzyjny podzbiór zbioru danych ARC-e, który zawiera tylko pytania, na które często udzielono odpowiedzi niewłaściwie za pomocą typowych algorytmów (wywołania baz danych i wspólnego występowania słów).

5 strzałów

GSM8K

Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania zadań matematycznych na poziomie szkoły podstawowej, które często wymagają kilkuetapowego rozumowania.

3–5 strzałów

AGIEval

Benchmark AGIEval sprawdza ogólną inteligencję modelu językowego za pomocą pytań pochodzących z egzaminów rzeczywistych, które mają na celu ocenę ludzkich zdolności intelektualnych.

3-shot, CoT

BBH

Test porównawczy BBH (BIG-Bench Hard) skupia się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich ograniczenia w różnych dziedzinach rozumowania i rozumienia.

3-shot, F1

UPUŚĆ

DROP to test czytania ze zrozumieniem, który wymaga logicznego myślenia na podstawie akapitów.

5-shot

Winogrande

W ramach testu porównawczego Winogrande sprawdzamy, czy model językowy potrafi rozwiązywać niejednoznaczne zadania polegające na wypełnianiu luk w tekście za pomocą opcji binarnych, co wymaga ogólnego rozumowania zdroworozsądkowego.

10 ujęć

HellaSwag

Wyzwanie HellaSwag sprawdza umiejętność modelu językowego do zrozumienia i zastosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.

4-strzałowe

MATH

MATH ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych z matematyki, które wymagają rozumowania, wieloetapowego rozwiązywania problemów i rozumienia pojęć matematycznych.

0-shot

ARC-e

Test ARC-e sprawdza zaawansowane umiejętności modela językowego w zakresie udzielania odpowiedzi na pytania za pomocą autentycznych pytań z jednego z poziomów szkoły podstawowej dotyczących nauk przyrodniczych.

0-shot

PIQA

W ramach testu PIQA sprawdzamy, czy model językowy potrafi zrozumieć i zastosować wiedzę o rzeczywistości fizycznej, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.

0-shot

SIQA

W ramach testu SIQA ocenia się, jak dobrze model językowy rozumie interakcje społeczne i zmysł społeczny, zadając pytania o działania ludzi i ich konsekwencje społeczne.

0-shot

Boolq

Test porównawczy BoolQ sprawdza zdolność modelu językowego do udzielania odpowiedzi na pytania typu tak/nie, testując jego zdolność do wykonywania zadań wnioskowania w języku naturalnym w rzeczywistych warunkach.

5-shot

TriviaQA

Benchmark TriviaQA sprawdza umiejętności czytania ze zrozumieniem za pomocą trójek pytanie-odpowiedź-dowód.

5-shot

NQ

W ramach testu porównawczego NQ (Natural Questions) sprawdzana jest zdolność modelu językowego do znajdowania i rozumienia odpowiedzi w całych artykułach w Wikipedii, co symuluje rzeczywiste scenariusze udzielania odpowiedzi na pytania.

pass@1

HumanEval

Test porównawczy HumanEval sprawdza możliwości generacji kodu przez model językowy, oceniając, czy jego rozwiązania przechodzą testy jednostkowe funkcjonalności dotyczące problemów z programowaniem.

3-shot

MBPP

Test MBPP sprawdza, czy model językowy potrafi rozwiązywać podstawowe problemy programistyczne w Pythonie, koncentrując się na podstawowych pojęciach programistycznych i używaniu standardowych bibliotek.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 MLD

42,3

Gemma 2

2,6 mln

51,3

Mistral

7B

62,5

LLAMA 3

8B

66,6

Gemma 1

7B

64,4

Gemma 2

9 B

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 mln

55,4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7B

61.1

Gemma 2

9 B

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 mln

15.1

Gemma 2

2,6 mln

23,9

Mistral

7B

39,6

LLAMA 3

8 MLD

45,7

Gemma 1

7B

51,8

Gemma 2

9 B

68,6

Gemma 2

27B

74,0

Gemma 1

2,5 mln

24.2

Gemma 2

2,6 mln

30,6

Mistral

7B

44,0

LLAMA 3

8B

45,9

Gemma 1

7B

44,9

Gemma 2

9 B

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 mln

35,2

Gemma 2

2,6 mln

41,9

Mistral

7B

56,0

LLAMA 3

8B

61.1

Gemma 1

7B

59,0

Gemma 2

9 B

68,2

Gemma 2

27B

74,9

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 mln

52,0

Mistral

7B

63,8

LLAMA 3

8B

58,4

Gemma 1

7B

56,3

Gemma 2

9 B

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 mln

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 MLD

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 MLD

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 MLD

71,7

Gemma 2

2,6 mln

73,0

Mistral

7B

83,0

LLAMA 3

8B

82,0

Gemma 1

7 MLD

82,3

Gemma 2

9 B

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 mln

11,8

Gemma 2

2,6 mln

15,0

Mistral

7B

12,7

Gemma 1

7B

24,3

Gemma 2

9 B

36,6

Gemma 2

27 MLD

42,3

Gemma 1

2,5 mln

73,2

Gemma 2

2,6 mln

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 B

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 mln

77,3

Gemma 2

2,6 mln

77,8

Mistral

7 MLD

82,2

Gemma 1

7B

81,2

Gemma 2

9 B

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 mln

49,7

Gemma 2

2,6 mln

51,9

Mistral

7 MLD

47,0

Gemma 1

7B

51,8

Gemma 2

9 B

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 mln

69,4

Gemma 2

2,6 mln

72,5

Mistral

7B

83,2

Gemma 1

7 MLD

83,2

Gemma 2

9 MLD

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 MLD

53,2

Gemma 2

2,6 mln

59,4

Mistral

7B

62,5

Gemma 1

7 MLD

63,4

Gemma 2

9 MLD

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 mln

12,5

Gemma 2

2,6 mln

16,7

Mistral

7B

23,2

Gemma 1

7B

23,0

Gemma 2

9 MLD

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 mln

22,0

Gemma 2

2,6 mln

17,7

Mistral

7 MLD

26,2

Gemma 1

7 MLD

32,3

Gemma 2

9 B

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 MLD

29,2

Gemma 2

2,6 mln

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 B

52,4

Gemma 2

27B

62,6

*To punkty odniesienia dla wstępnie wytrenowanych modeli. Szczegółowe informacje o wydajności w przypadku innych metod znajdziesz w raporcie technicznym.

Rodzina modeli Gemma

Nowe wydanie

Gemma 2

Gemma 2 oferuje 3 nowe, wydajne i skuteczne modele o rozmiarach 2, 9 i 27 mld parametrów, wszystkie z wbudowanymi zaawansowanymi zabezpieczeniami.

Nowe wydanie

DataGemma

DataGemma to pierwsze otwarte modele, które łączą LLM z obszernymi danymi z życia wziętymi pochodzącymi z Data Commons Google.

Gemma 1

Modele Gemma to lekkie, tekstowo-tekstowe duże modele językowe z tylko jednym dekoderem, które są trenowane na ogromnym zbiorze danych obejmującym tekst, kod i treści matematyczne na potrzeby różnych zadań związanych z przetwarzaniem języka naturalnego.

RecurrentGemma

RecurrentGemma to technicznie odrębny model, który wykorzystuje rekurencyjne sieci neuronowe i lokalną uwagę, aby zwiększyć wydajność pamięci.

PaliGemma

PaliGemma to otwarty model językowo-wizualny inspirowany PaLI-3, który wykorzystuje SigLIP i Gemma. Został zaprojektowany jako wszechstronny model do przenoszenia na potrzeby szerokiego zakresu zadań językowo-wizualnych.

CodeGemma

Korzystając z podstaw naszych oryginalnych wstępnie wytrenowanych modeli Gemma, CodeGemma zapewnia zaawansowane funkcje uzupełniania i generowania kodu w rozmiarach odpowiednich dla Twojego lokalnego komputera.

Krótkie przewodniki dla deweloperów

Gemma Cookbook

Poznaj kolekcję praktycznych receptur i przykładów, które pokazują potencjał i wszechstronność Gemma do wykonywania takich zadań jak dodawanie podpisów do obrazów za pomocą PaliGemma, generowanie kodu za pomocą CodeGemma czy tworzenie chatbotów za pomocą dopracowanych modeli Gemma.

Odpowiedzialny rozwój AI

Odpowiedzialność w fazie projektowania

Są wstępnie wytrenowane na podstawie starannie dobranych danych oraz zoptymalizowane pod kątem bezpieczeństwa, co pomaga w bezpiecznym i odpowiedzialnym rozwijaniu AI z wykorzystaniem modeli Gemma.

Rzetelna i przejrzysta ocena

Kompleksowe oceny i przejrzyste raporty ujawniają ograniczenia modelu, aby umożliwić odpowiedzialne podejście do każdego przypadku użycia.

Odpowiedzialny rozwój

Zestaw narzędzi odpowiedzialnej generatywnej AI pomaga programistom projektować i wdrażać sprawdzone metody dotyczące odpowiedzialnej AI.

Ikona Google Cloud

Zoptymalizowane pod kątem Google Cloud

Dzięki modelom Gemma w Google Cloud możesz szczegółowo dostosować model do swoich potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub opcji samodzielnego zarządzania GKE i wdrożyć go w elastycznej i opłacalnej infrastrukturze zoptymalizowanej pod kątem AI.

Przyspieszanie badań akademickich dzięki środkom w Google Cloud

W ramach programu Academic Research Program niedawno zakończyliśmy przyjmowanie zgłoszeń. Współpracujący z nami badacze, którzy korzystają z modeli Gemma, otrzymali środki na Google Cloud. Cieszymy się, że dzięki tej inicjatywie powstają przełomowe badania.

Zachęcamy do śledzenia informacji o kolejnych możliwościach korzystania z Google Cloud do rozwijania badań.

Dołącz do społeczności

Nawiązuj kontakty, poznawaj i udostępniaj swoją wiedzę innym członkom społeczności modeli ML.