Gemma Open Models

Rodzina lekkich, najnowocześniejszych otwartych modeli opartych na tych samych badaniach i technologiach, które posłużyły do stworzenia modeli Gemini.

Ikona odpowiedzialnego projektowania

Odpowiedzialna konstrukcja

Dzięki kompleksowym środkom bezpieczeństwa modele te pomagają zapewnić odpowiedzialne i godne zaufania rozwiązania AI dzięki starannie dobranym zbiorom danych i rygorystycznej regulacji.

Ikona niezgodnego działania

Niezrównana wydajność

Modele Gemma osiągają wyjątkowe wyniki w przypadku rozmiarów 2B, 7B, 9B i 27B, a nawet przewyższają wyniki niektórych większych otwartych modeli.

Elastyczne zasady

Elastyczne wdrażanie

Bezproblemowo wdrażaj modele na urządzenia mobilne, w internecie i w chmurze, korzystając z Keras, JAX, MediaPipe, PyTorch, Hugging Face i innych narzędzi.

Wypróbuj Gemma 2

Gemma 2 została zaprojektowana z myślą o wyjątkowej wydajności i niespotykanej efektywności. Optymalizuje szybkie wnioskowanie na różnych rodzajach sprzętu.

5-shot

MMLU

Test MMLU to test, który mierzy zakres wiedzy i zdolności do rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego treningu.

25-shot

ARC-C

Punkt odniesienia ARC-c to bardziej skoncentrowany podzbiór zbioru danych ARC-e, zawierający tylko pytania, na które prawidłowe odpowiedzi podają zwykłe algorytmy (oparte na wyszukiwaniu i współwystępowaniu słów).

5-shot

GSM8K

Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania zadań matematycznych na poziomie szkoły podstawowej, które często wymagają kilkuetapowego rozumowania.

3–5 strzałów

AGIEval

Benchmark AGIEval sprawdza ogólną inteligencję modelu językowego za pomocą pytań pochodzących z egzaminów rzeczywistych, które mają na celu ocenę ludzkich zdolności intelektualnych.

3-shot, CoT

BBH

Benchmark BBH (BIG-Bench Hard) koncentruje się na zadaniach, które wykraczają poza możliwości obecnych modeli językowych, testując ich możliwości w różnych domenach rozumowania i rozumienia.

3-shot, F1

UPUŚĆ

DROP to test czytania ze zrozumieniem, który wymaga logicznego myślenia na podstawie akapitów.

5-shot

Winogrande

W ramach testu porównawczego Winogrande sprawdza się zdolność modelu językowego do rozwiązywania niejednoznacznych zadań typu „uzupełnij luki” za pomocą opcji binarnych, co wymaga ogólnego rozumowania zdroworozsądkowego.

10 ujęć

HellaSwag

Wyzwanie HellaSwag sprawdza umiejętność modelu językowego do zrozumienia i zastosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.

4-shot

MATH

MATH ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych z matematyki, które wymagają rozumowania, wieloetapowego rozwiązywania problemów i rozumienia pojęć matematycznych.

0-shot

ARC-e

Testowanie ARC-e sprawdza zaawansowane umiejętności modela językowego w rozwiązywaniu pytań za pomocą autentycznych pytań jednokrotnego wyboru z zakresu nauki o świecie.

0-shot

PIQA

W ramach testu PIQA sprawdzamy, czy model językowy potrafi zrozumieć i zastosować wiedzę o rzeczywistości fizycznej, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.

0-shot

SIQA

W ramach testu SIQA ocenia się, jak dobrze model językowy rozumie interakcje społeczne i zmysł społeczny, zadając pytania o działania ludzi i ich konsekwencje społeczne.

0-shot

Boolq

Test porównawczy BoolQ sprawdza zdolność modelu językowego do udzielania odpowiedzi na pytania typu tak/nie, testując jego zdolność do wykonywania zadań związanych z rozpoznawaniem języka naturalnego w rzeczywistych warunkach.

5-shot

TriviaQA

Benchmark TriviaQA sprawdza umiejętności czytania ze zrozumieniem za pomocą trójek pytanie-odpowiedź-dowód.

5-shot

NQ

W ramach testu porównawczego NQ (Natural Questions) sprawdzana jest zdolność modelu językowego do znajdowania i rozumienia odpowiedzi w całych artykułach w Wikipedii, co symuluje rzeczywiste scenariusze udzielania odpowiedzi na pytania.

pass@1

HumanEval

Test porównawczy HumanEval sprawdza możliwości generacji kodu przez model językowy, oceniając, czy jego rozwiązania przechodzą testy jednostkowe funkcjonalności dotyczące problemów z programowaniem.

3-shot

MBPP

Test MBPP sprawdza, czy model językowy jest w stanie rozwiązywać podstawowe problemy związane z programowaniem w Pythonie, koncentrując się na podstawowych koncepcjach programowania i używaniu standardowych bibliotek.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 mln

42,3

Gemma 2

2,6 mln

51,3

Mistral

7B

62,5

LLAMA 3

8B

66,6

Gemma 1

7B

64,4

Gemma 2

9 B

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 mln

55,4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7B

61.1

Gemma 2

9 B

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 mln

15.1

Gemma 2

2,6 mln

23,9

Mistral

7B

39,6

LLAMA 3

8B

45,7

Gemma 1

7B

51,8

Gemma 2

9 B

68,6

Gemma 2

27B

74,0

Gemma 1

2,5 mln

24.2

Gemma 2

2,6 mln

30,6

Mistral

7B

44,0

LLAMA 3

8B

45,9

Gemma 1

7B

44,9

Gemma 2

9 B

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 mln

35,2

Gemma 2

2,6 mln

41,9

Mistral

7B

56,0

LLAMA 3

8B

61.1

Gemma 1

7B

59,0

Gemma 2

9 B

68,2

Gemma 2

27B

74,9

Gemma 1

2,5 mln

48,5

Gemma 2

2,6 mln

52,0

Mistral

7B

63,8

LLAMA 3

8B

58,4

Gemma 1

7B

56,3

Gemma 2

9 B

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 mln

66,8

Gemma 2

2,6 mln

70,9

Mistral

7B

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 B

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 mln

71,7

Gemma 2

2,6 mln

73,0

Mistral

7B

83,0

LLAMA 3

8B

82,0

Gemma 1

7B

82,3

Gemma 2

9 B

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 mln

11.8

Gemma 2

2,6 mln

15,0

Mistral

7B

12,7

Gemma 1

7B

24,3

Gemma 2

9 B

36,6

Gemma 2

27B

42,3

Gemma 1

2,5 mln

73,2

Gemma 2

2,6 mln

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 B

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 mln

77,3

Gemma 2

2,6 mln

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 B

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 mln

49,7

Gemma 2

2,6 mln

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 B

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 mln

69,4

Gemma 2

2,6 mln

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 B

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 mln

53,2

Gemma 2

2,6 mln

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 B

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 mln

12,5

Gemma 2

2,6 mln

16,7

Mistral

7B

23,2

Gemma 1

7B

23,0

Gemma 2

9 B

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 mln

22,0

Gemma 2

2,6 mln

17,7

Mistral

7B

26,2

Gemma 1

7B

32,3

Gemma 2

9 B

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 mln

29,2

Gemma 2

2,6 mln

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 B

52,4

Gemma 2

27B

62,6

*To punkty odniesienia dla wstępnie wytrenowanych modeli. Szczegółowe informacje o wydajności w przypadku innych metod znajdziesz w raporcie technicznym.

PaliGemma 2 Nowość

PaliGemma 2 zapewnia modele językowe Gemma 2 łatwe do dostosowania funkcje rozpoznawania obrazów, umożliwiając tworzenie wielu aplikacji łączących interpretację tekstu i obrazów.

DataGemma

DataGemma to pierwsze otwarte modele, które łączą LLM z obszernymi danymi z życia wziętymi pochodzącymi z Data Commons Google.

Zakres Gemma

Gemma Scope zapewnia badaczom bezprecedensową przejrzystość procesów podejmowania decyzji przez modele Gemma 2.

Wdrażanie modeli

Wybierz cel wdrożenia

Ikona wdrażania na urządzeniu mobilnymUrządzenia mobilne

Wdrażanie na urządzeniu za pomocą Google AI Edge

Wdróż bezpośrednio na urządzeniach, aby korzystać z funkcji offline z minimalnym opóźnieniem. Idealne do zastosowań wymagających szybkiego działania i prywatności w czasie rzeczywistym, takich jak aplikacje mobilne, urządzenia IoT i systemy wbudowane.

Ikona sieciInternet

Bezproblemowa integracja z aplikacjami internetowymi

Udostępniaj zaawansowane funkcje AI, aby wzbogacać swoje strony internetowe i usługi internetowe o funkcje interaktywne, treści spersonalizowane i inteligentną automatyzację.

Ikona chmuryCloud

Łatwe skalowanie dzięki infrastrukturze w chmurze

Korzystaj z skalowalności i elastyczności chmury, aby obsługiwać wdrożenia na dużą skalę, wymagające zbiory zadań i złożone aplikacje AI.

Otwieranie komunikacji globalnej

Weź udział w globalnym konkursie Kaggle. Utwórz warianty modelu Gemma dla konkretnego języka lub unikalnego aspektu kulturowego