Modele Gemma Open

Rodzina lekkiego, nowoczesnego modelu otwartego stworzonego na podstawie tych samych badań i technologii, które posłużyły do stworzenia modeli Gemini

Ikona odpowiedzialności z myślą o odpowiedzialności

Odpowiedzialna konstrukcja

Wprowadzając kompleksowe środki bezpieczeństwa, modele te pomagają zapewniać odpowiedzialną i wiarygodną technologię AI dzięki wyselekcjonowanym zbiorom danych i rygorystycznemu dostrajaniu.

Ikona niezrównanej skuteczności

Niezrównana skuteczność przy tak dużym rozmiarze

Modele Gemma osiągają wyjątkowe wyniki w przypadku rozmiarów 2B, 7B, 9B i 27B, a nawet przewyższają niektóre większe modele otwarte.

Elastyczna struktura

Elastyczna struktura

Keras 3.0 zapewnia pełną zgodność z JAX, TensorFlow i PyTorchem, pozwalając na łatwe wybieranie i przełączanie platform zależnie od zadania.

Przedstawiamy
Gemma 2

Gemma 2 została zaprojektowana z myślą o wyjątkowej wydajności i niespotykanej efektywności. Umożliwia błyskawiczne wnioskowanie na różnych urządzeniach.

5 strzałów

MMLU

Test MMLU to test, który mierzy zakres wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego treningu.

25-strzałowa

ARC-C

Test porównawczy ARC-c to bardziej precyzyjny podzbiór zbioru danych ARC-e, który zawiera tylko pytania, na które często udzielono odpowiedzi niewłaściwie za pomocą typowych algorytmów (wywołania baz danych i wspólnego występowania słów).

5-shot

GSM8K

Test GSM8K sprawdza, czy model językowy potrafi rozwiązywać zadania matematyczne na poziomie szkoły podstawowej, które często wymagają kilkuetapowego rozumowania.

3–5 strzałów

AGIEval

Test porównawczy AGIEval sprawdza ogólną inteligencję modelu językowego, używając pytań pochodzących z prawdziwych egzaminów, których celem jest ocena ludzkich zdolności intelektualnych.

3-shot, CoT

BBH

Test porównawczy BBH (BIG-Bench Hard) skupia się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich ograniczenia w różnych dziedzinach rozumowania i rozumienia.

3-shot, F1

UPUŚĆ

DROP to test porównawczy ze zrozumieniem tekstu, który wymaga dyskretnego rozumowania nad akapitami.

5 strzałów

Winogrande

W ramach testu porównawczego Winogrande sprawdzamy, czy model językowy potrafi rozwiązywać niejednoznaczne zadania typu „uzupełnij luki” za pomocą opcji binarnych, co wymaga ogólnego rozumowania zdroworozsądkowego.

10-strzałowa

HellaSwag

Test porównawczy HellaSwag kwestionuje zdolność modelu językowego do zrozumienia i stosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.

4-strzałowe

MATH

MATEMATYCZNE ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych, wymagających rozumowania, wieloetapowego rozwiązywania problemów i zrozumienia pojęć matematycznych.

0 strzałów

ARC-e

Test porównawczy ARC-e sprawdza zaawansowane umiejętności odpowiadania na pytania modelu językowego na podstawie autentycznych pytań jednokrotnego wyboru na poziomie szkoły średniej.

0-shot

PIQA

W ramach testu PIQA sprawdzamy, czy model językowy potrafi zrozumieć i zastosować wiedzę o rzeczywistości fizycznej, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.

0 strzałów

SIQA

Test porównawczy SIQA służy do oceny zrozumienia interakcji społecznych i zdrowego rozsądku przez model językowy przez zadawanie pytań o działania ludzi i ich konsekwencje społeczne.

0 strzałów

Boolq

Test BoolQ sprawdza zdolność modelu językowego do udzielania odpowiedzi na pytania typu tak/nie, które występują w naturze. Testuje on też zdolność modeli do wykonywania zadań wnioskowania w języku naturalnym w rzeczywistych warunkach.

5 strzałów

TriviaQA

Test porównawczy TriviaQA sprawdza umiejętność czytania ze zrozumieniem za pomocą potrójnych dowodów na pytanie, odpowiedź i odpowiedź.

5-shot

NQ

Benchmark NQ (Natural Questions) sprawdza, jak model językowy radzi sobie z wyszukiwaniem i rozumieniem odpowiedzi w całych artykułach w Wikipedii, symulując rzeczywiste scenariusze odpowiadania na pytania.

karta@1

HumanEval

Test porównawczy HumanEval sprawdza możliwości generacji kodu przez model językowy, oceniając, czy jego rozwiązania przechodzą testy jednostkowe funkcjonalności dotyczące problemów z programowaniem.

3-shot

MBPP

Test MBPP sprawdza, czy model językowy potrafi rozwiązywać podstawowe problemy programistyczne w Pythonie, koncentrując się na podstawowych pojęciach programistycznych i użyciu standardowych bibliotek.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 mln

42,3

Gemma 2

2,6 MLD

51,3

Mistral

7 MLD

62,5

LLAMA 3

8 MLD

66,6

Gemma 1

7 MLD

64,4

Gemma 2

9 MLD

71,3

Gemma 2

27 MLD

75,2

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 MLD

55,4

Mistral

7B

60.5

LLAMA 3

8 MLD

59,2

Gemma 1

7 MLD

61,1

Gemma 2

9 MLD

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 MLD

15.1

Gemma 2

2,6 MLD

23,9

Mistral

7B

39,6

LLAMA 3

8B

45,7

Gemma 1

7B

51,8

Gemma 2

9 B

68,6

Gemma 2

27 MLD

74,0

Gemma 1

2,5 MLD

24,2

Gemma 2

2,6 MLD

30,6

Mistral

7B

44,0

LLAMA 3

8B

45,9

Gemma 1

7 MLD

44,9

Gemma 2

9 MLD

52,8

Gemma 2

27B

55,1

Gemma 1

2,5 mln

35,2

Gemma 2

2,6 MLD

41,9

Mistral

7 MLD

56,0

LLAMA 3

8B

61,1

Gemma 1

7B

59,0

Gemma 2

9 MLD

68,2

Gemma 2

27 MLD

74,9

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 MLD

52,0

Mistral

7B

63,8

LLAMA 3

8 MLD

58,4

Gemma 1

7B

56,3

Gemma 2

9 MLD

69,4

Gemma 2

27 MLD

74,2

Gemma 1

2,5 mln

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 MLD

78,5

LLAMA 3

8 MLD

76,1

Gemma 1

7B

79,0

Gemma 2

9 B

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 MLD

71,7

Gemma 2

2,6 MLD

73,0

Mistral

7 MLD

83,0

LLAMA 3

8 MLD

82,0

Gemma 1

7 MLD

82,3

Gemma 2

9 MLD

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 MLD

11.8

Gemma 2

2,6 MLD

15,0

Mistral

7 MLD

12,7

Gemma 1

7B

24,3

Gemma 2

9 B

36,6

Gemma 2

27 MLD

42,3

Gemma 1

2,5 mln

73,2

Gemma 2

2,6 MLD

80,1

Mistral

7 MLD

80,5

Gemma 1

7 MLD

81,5

Gemma 2

9 MLD

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 MLD

77,3

Gemma 2

2,6 MLD

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 MLD

81,7

Gemma 2

27 MLD

83,2

Gemma 1

2,5 mln

49,7

Gemma 2

2,6 MLD

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 MLD

53,4

Gemma 2

27 MLD

53,7

Gemma 1

2,5 mln

69,4

Gemma 2

2,6 MLD

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 MLD

84,2

Gemma 2

27 MLD

84,8

Gemma 1

2,5 MLD

53,2

Gemma 2

2,6 MLD

59,4

Mistral

7 MLD

62,5

Gemma 1

7 MLD

63,4

Gemma 2

9 MLD

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 MLD

12,5

Gemma 2

2,6 MLD

16,7

Mistral

7B

23,2

Gemma 1

7 MLD

23,0

Gemma 2

9 B

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 mln

22,0

Gemma 2

2,6 MLD

17,7

Mistral

7B

26,2

Gemma 1

7 MLD

32,3

Gemma 2

9 MLD

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 mln

29,2

Gemma 2

2,6 MLD

29,6

Mistral

7B

40,2

Gemma 1

7 MLD

44,4

Gemma 2

9 MLD

52,4

Gemma 2

27B

62,6

*To są testy porównawcze wstępnie wytrenowanych modeli. Szczegółowe informacje o wydajności w połączeniu z innymi metodologiami znajdziesz w raporcie technicznym.

Rodzina modeli Gemma

Nowe wydanie

Gemma 2

Gemma 2 oferuje 3 nowe, wydajne i skuteczne modele o rozmiarach 2, 9 i 27 mld parametrów, wszystkie z wbudowanymi zaawansowanymi zabezpieczeniami.

Nowa wersja

DataGemma

DataGemma to pierwsze otwarte modele, które łączą LLM z obszernymi danymi z życia wziętymi pochodzącymi z Data Commons Google.

Gemma 1

Modele Gemma to lekkie duże modele językowe (tekst na tekst) oparte tylko na dekoderze. Są trenowane na ogromnym zbiorze danych składających się z tekstu, kodu i treści matematycznych na potrzeby różnych zadań związanych z przetwarzaniem języka naturalnego.

RecurrentGemma

RecurrentGemma to technicznie odrębny model, który wykorzystuje rekurencyjne sieci neuronowe i lokalną uwagę, aby zwiększyć wydajność pamięci.

PaliGemma

PaliGemma to otwarty model rozpoznawania mowy i wizualizacji inspirowany PaLI-3. Wykorzystuje rozwiązania SigLIP i Gemma, które powstały jako uniwersalny model do realizacji różnorodnych zadań związanych z językiem wzrokowym.

CodeGemma

Korzystając z podstaw naszych oryginalnych wstępnie wytrenowanych modeli Gemma, CodeGemma zapewnia zaawansowane funkcje uzupełniania i generowania kodu w rozmiarach odpowiednich dla Twojego lokalnego komputera.

Krótkie przewodniki dla deweloperów

Gemma Cookbook

Odkryj kolekcję praktycznych przepisów i przykładów, które pokazują możliwości i wszechstronność Gemmy w takich zadaniach jak tworzenie podpisów obrazów w PaliGemma, generowanie kodu w CodeGemma czy tworzenie czatbotów z dopracowanymi modelami.

Odpowiedzialny rozwój AI

Odpowiedzialność w fazie projektowania

Są wstępnie wytrenowane na podstawie starannie dobranych danych oraz zoptymalizowane pod kątem bezpieczeństwa, co pomaga w bezpiecznym i odpowiedzialnym rozwijaniu AI z wykorzystaniem modeli Gemma.

Solidna i przejrzysta ocena

Kompleksowe oceny i przejrzyste raporty ujawniają ograniczenia modelu, aby umożliwić odpowiedzialne podejście do każdego przypadku użycia.

Odpowiedzialny rozwój

Pakiet narzędzi odpowiedzialnej generatywnej AI pomaga deweloperom projektować i wdrażać sprawdzone metody w zakresie odpowiedzialnej AI.

Ikona Google Cloud

Zoptymalizowane pod kątem Google Cloud

Dzięki modelom Gemma w Google Cloud możesz szczegółowo dostosować model do swoich potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub opcji samodzielnego zarządzania GKE i wdrożyć go w elastycznej i opłacalnej infrastrukturze zoptymalizowanej pod kątem AI.

Przyspieszanie badań akademickich dzięki środkom na Google Cloud

Niedawno zakończył się okres przyjmowania zgłoszeń do programu badań naukowych, w ramach którego przyznaliśmy środki na Google Cloud, aby wspierać badaczy przekraczania granic odkryć naukowych za pomocą modeli Gemma. Cieszymy się, że dzięki tej inicjatywie powstają przełomowe badania.

Zachęcamy do śledzenia informacji o kolejnych możliwościach korzystania z Google Cloud do rozwijania badań.

Dołącz do społeczności

Nawiązuj kontakty, poznawaj i udostępniaj swoją wiedzę innym członkom społeczności modeli ML.