Modele Gemma Open

Rodzina lekkiego, nowoczesnego modelu otwartego stworzonego na podstawie tych samych badań i technologii, które posłużyły do stworzenia modeli Gemini

Ikona odpowiedzialności z myślą o odpowiedzialności

Odpowiedzialne z założenia

Wprowadzając kompleksowe środki bezpieczeństwa, modele te pomagają zapewniać odpowiedzialną i wiarygodną technologię AI dzięki wyselekcjonowanym zbiorom danych i rygorystycznemu dostrajaniu.

Ikona niezrównanej skuteczności

Niezrównana skuteczność przy tak dużym rozmiarze

Modele Gemma osiągają wyjątkowe wyniki w testach porównawczych w rozmiarach 2 B, 7 B, 9 B i 27 mld, nawet jeśli radzą sobie lepiej z niektórymi większymi modelami otwartymi.

Elastyczna struktura

Elastyczna struktura

Keras 3.0 zapewnia pełną zgodność z JAX, TensorFlow i PyTorchem, pozwalając na łatwe wybieranie i przełączanie platform zależnie od zadania.

Przedstawiamy
Gemma 2

Gemma 2, zaprojektowany od nowa z myślą o wydajności i niezrównanej wydajności, optymalizuje działanie pod kątem błyskawicznego wnioskowania na zróżnicowanym sprzęcie.

5 strzałów

MMLU

Test porównawczy MMLU to test mający na celu ocenę zakresu wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego trenowania.

25-strzałowa

ARC-C

Test porównawczy ARC-c to bardziej precyzyjny podzbiór zbioru danych ARC-e, który zawiera tylko pytania, na które często udzielono odpowiedzi niewłaściwie za pomocą typowych algorytmów (wywołania baz danych i wspólnego występowania słów).

5 strzałów

GSM8K

Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania zadań matematycznych na poziomie szkoły podstawowej, które często wymagają wieloetapowego wyciągania wniosków.

3–5 strzałów

AGIEval

Test porównawczy AGIEval sprawdza ogólną inteligencję modelu językowego, używając pytań pochodzących z prawdziwych egzaminów, których celem jest ocena ludzkich zdolności intelektualnych.

3-strzałowe, CT

BBH

Test porównawczy BBH (BIG-Bench Hard) skupia się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich ograniczenia w różnych dziedzinach rozumowania i rozumienia.

3-shoty, F1

UPUŚĆ

DROP to test porównawczy ze zrozumieniem tekstu, który wymaga dyskretnego rozumowania nad akapitami.

5 strzałów

Winograndzka

Test porównawczy Winogrande sprawdza zdolność modelu językowego do rozwiązywania niejednoznacznych zadań, których nie można uzupełnić, za pomocą opcji binarnych, co wymaga uogólnienia zdroworozsądkowego myślenia.

10-strzałowa

HellaSwag

Test porównawczy HellaSwag kwestionuje zdolność modelu językowego do zrozumienia i stosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.

4-strzałowe

MATEMATYCZNE

MATEMATYCZNE ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych, wymagających rozumowania, wieloetapowego rozwiązywania problemów i zrozumienia pojęć matematycznych.

0 strzałów

ARC-e

Test porównawczy ARC-e sprawdza zaawansowane umiejętności odpowiadania na pytania modelu językowego na podstawie autentycznych pytań z nauką jednokrotnego wyboru na poziomie szkoły średniej.

0 strzałów

PIQA

Test porównawczy PIQA sprawdza zdolność modelu językowego do rozumienia i stosowania wiedzy o zdrowym rozsądku, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.

0 strzałów

SIQA

Test porównawczy SIQA służy do oceny zrozumienia interakcji społecznych i zdrowego rozsądku przez model językowy przez zadawanie pytań o działania ludzi i ich konsekwencje społeczne.

0 strzałów

Boolq

Test porównawczy BoolQ sprawdza zdolność modelu językowego do odpowiadania na naturalnie pojawiające się pytania „tak/nie” i sprawdza zdolność modeli do wykonywania zadań związanych z wnioskowaniem w języku naturalnym w świecie rzeczywistym.

5 strzałów

TriviaQA

Test porównawczy TriviaQA sprawdza umiejętność czytania ze zrozumieniem za pomocą potrójnych dowodów na pytanie, odpowiedź i odpowiedź.

5 strzałów

NQ

Test porównawczy NQ (Natural questions) sprawdza zdolność modelu językowego do znajdowania i rozumienia odpowiedzi zawartych w całych artykułach w Wikipedii, symulując rzeczywiste scenariusze odpowiadania na pytania.

karta@1

HumanEval

Test porównawczy HumanEval sprawdza zdolność modelu językowego do generowania kodu, oceniając, czy jego rozwiązania przeszły testy funkcjonalne jednostki programistycznej.

3 uderzenia

MBPP

Test porównawczy MBPP sprawdza zdolność modelu językowego do rozwiązywania podstawowych problemów z programowaniem w języku Python, koncentrując się na podstawowych koncepcjach programowania i standardowym wykorzystaniu bibliotek.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 MLD

42,3

Gemma 2

2,6 MLD

51,3

Mistral

7 MLD

62,5

LLAMA 3

8 MLD

66,6

Gemma 1

7 MLD

64,4

Gemma 2

9 MLD

71,3

Gemma 2

27 MLD

75,2

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

55,4

Mistral

7 MLD

60.5

LLAMA 3

8 MLD

59,2

Gemma 1

7 MLD

61,1

Gemma 2

9 MLD

68,4

Gemma 2

27 MLD

71,4

Gemma 1

2,5 MLD

15.1

Gemma 2

2,6 MLD

23,9

Mistral

7 MLD

39,6

LLAMA 3

8 MLD

45,7

Gemma 1

7 MLD

51,8

Gemma 2

9 MLD

68,6

Gemma 2

27 MLD

74,0

Gemma 1

2,5 MLD

24,2

Gemma 2

2,6 MLD

30,6

Mistral

7 MLD

44,0

LLAMA 3

8 MLD

45,9

Gemma 1

7 MLD

44,9

Gemma 2

9 MLD

52,8

Gemma 2

27 MLD

55,1

Gemma 1

2,5 MLD

35,2

Gemma 2

2,6 MLD

41,9

Mistral

7 MLD

56,0

LLAMA 3

8 MLD

61,1

Gemma 1

7 MLD

59,0

Gemma 2

9 MLD

68,2

Gemma 2

27 MLD

74,9

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

52,0

Mistral

7 MLD

63,8

LLAMA 3

8 MLD

58,4

Gemma 1

7 MLD

56,3

Gemma 2

9 MLD

69,4

Gemma 2

27 MLD

74,2

Gemma 1

2,5 MLD

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 MLD

78,5

LLAMA 3

8 MLD

76,1

Gemma 1

7 MLD

79,0

Gemma 2

9 MLD

80,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

71,7

Gemma 2

2,6 MLD

73,0

Mistral

7 MLD

83,0

LLAMA 3

8 MLD

82,0

Gemma 1

7 MLD

82,3

Gemma 2

9 MLD

81,9

Gemma 2

27 MLD

86,4

Gemma 1

2,5 MLD

11,8

Gemma 2

2,6 MLD

15,0

Mistral

7 MLD

12,7

Gemma 1

7 MLD

24,3

Gemma 2

9 MLD

36,6

Gemma 2

27 MLD

42,3

Gemma 1

2,5 MLD

73,2

Gemma 2

2,6 MLD

80,1

Mistral

7 MLD

80,5

Gemma 1

7 MLD

81,5

Gemma 2

9 MLD

88,0

Gemma 2

27 MLD

88,6

Gemma 1

2,5 MLD

77,3

Gemma 2

2,6 MLD

77,8

Mistral

7 MLD

82,2

Gemma 1

7 MLD

81,2

Gemma 2

9 MLD

81,7

Gemma 2

27 MLD

83,2

Gemma 1

2,5 MLD

49,7

Gemma 2

2,6 MLD

51,9

Mistral

7 MLD

47,0

Gemma 1

7 MLD

51,8

Gemma 2

9 MLD

53,4

Gemma 2

27 MLD

53,7

Gemma 1

2,5 MLD

69,4

Gemma 2

2,6 MLD

72,5

Mistral

7 MLD

83,2

Gemma 1

7 MLD

83,2

Gemma 2

9 MLD

84,2

Gemma 2

27 MLD

84,8

Gemma 1

2,5 MLD

53,2

Gemma 2

2,6 MLD

59,4

Mistral

7 MLD

62,5

Gemma 1

7 MLD

63,4

Gemma 2

9 MLD

76,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

12,5

Gemma 2

2,6 MLD

16,7

Mistral

7 MLD

23,2

Gemma 1

7 MLD

23,0

Gemma 2

9 MLD

29,2

Gemma 2

27 MLD

34,5

Gemma 1

2,5 MLD

22,0

Gemma 2

2,6 MLD

17,7

Mistral

7 MLD

26,2

Gemma 1

7 MLD

32,3

Gemma 2

9 MLD

40,2

Gemma 2

27 MLD

51,8

Gemma 1

2,5 MLD

29,2

Gemma 2

2,6 MLD

29,6

Mistral

7 MLD

40,2

Gemma 1

7 MLD

44,4

Gemma 2

9 MLD

52,4

Gemma 2

27 MLD

62,6

*Są to testy porównawcze wytrenowanych modeli. Szczegółowe informacje o wydajności w połączeniu z innymi metodologiami znajdziesz w raporcie technicznym.

Krótkie przewodniki dla programistów

Książka kucharska Gemma

Odkryj kolekcję praktycznych przepisów i przykładów, które pokazują możliwości i wszechstronność Gemmy w takich zadaniach jak tworzenie podpisów obrazów w PaliGemma, generowanie kodu w CodeGemma czy tworzenie czatbotów z dopracowanymi modelami.

Odpowiedzialny rozwój AI

Odpowiedzialność w fazie projektowania

Są wstępnie wytrenowane na podstawie starannie dobranych danych oraz zoptymalizowane pod kątem bezpieczeństwa, co pomaga w bezpiecznym i odpowiedzialnym rozwijaniu AI z wykorzystaniem modeli Gemma.

Solidna i przejrzysta ocena

Kompleksowe oceny i przejrzyste raporty ujawniają ograniczenia modelu, które pozwalają przyjąć odpowiedzialne podejście do każdego przypadku użycia.

Wspomaga odpowiedzialnego rozwoju

Pakiet narzędzi odpowiedzialnej generatywnej AI pomaga deweloperom projektować i wdrażać sprawdzone metody w zakresie odpowiedzialnej AI.

Ikona Google Cloud

Zoptymalizowane pod kątem Google Cloud

Dzięki modelom Gemma w Google Cloud możesz dokładnie dostosować model do swoich potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub samodzielnie zarządzanej opcji GKE, a także wdrożyć go w elastycznej i ekonomicznej infrastrukturze zoptymalizowanej pod kątem AI.

Przyspieszanie badań akademickich dzięki środkom na Google Cloud

Niedawno zakończył się okres przyjmowania zgłoszeń do programu badań naukowych, w ramach którego przyznaliśmy środki na Google Cloud, aby wspierać badaczy przekraczania granic odkryć naukowych za pomocą modeli Gemma. Z radością obserwujemy przełomowe badania, które wywodzą się z tej inicjatywy.

Będziemy na bieżąco informować o możliwościach poszerzania zakresu badań nad Google Cloud.

Dołącz do społeczności

Nawiązuj kontakty, odkrywaj i dziel się swoją wiedzą z innymi członkami społeczności modeli ML.