Modele Gemma Open

Rodzina lekkich, najnowocześniejszych otwartych modeli opracowanych na podstawie tych samych badań i technologii, które służyły do tworzenia modeli Gemini.

Logo Gemma Modele

Witryna jest odpowiedzialna

Modele te, obejmujące kompleksowe środki bezpieczeństwa, pomagają zapewnić odpowiedzialne i godne zaufania rozwiązania AI przez wyselekcjonowane zbiory danych i rygorystyczne dostrajanie.

Logo Gemma Modele

Niezrównana skuteczność w danym rozmiarze

Modele Gemma osiągają znakomite wyniki porównawcze przy 2 mld i 7 mld rozmiarów, nawet jeśli radzą sobie z większymi modelami otwartymi.

Logo Gemma Modele

Elastyczna platforma

Keras 3.0 zapewnia pełną zgodność z JAX, TensorFlow i PyTorch, umożliwiając łatwe wybieranie i przełączanie platform w zależności od zadania.

Porównanie

Gemma wyznacza nowy styl najnowocześniejszych rozwiązań pod względem wielkości w porównaniu z popularnymi modelami, takimi jak Llama 2 czy Mistral 7B.

5 ujęć, top 1

protokół MMLU

Test porównawczy MMLU to test, który mierzy zakres wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe (LLM) podczas wstępnego trenowania.

0 strzałów

HellaSwag

Test HellaSwag podważa zdolność modelu językowego do rozumienia i stosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.

0 strzałów

PIQA

Test porównawczy PIQA sprawdza zdolność modelu językowego do rozumienia i stosowania zdrowej wiedzy fizycznej przez udzielenie odpowiedzi na pytania dotyczące codziennych interakcji fizycznych.

0 strzałów

SIQA

Test SIQA pozwala ocenić rozumienie interakcji społecznych i zdrowego rozsądku przez model językowy, zadając pytania o działania ludzi i ich implikacje społeczne.

0 strzałów

Boolq

Test porównawczy BoolQ sprawdza zdolność modelu językowego do odpowiadania na pytania naturalnie występujące (generowane w ustawieniach bez podpowiedzi i nieograniczonych) pytań tak/nie, testując zdolność modeli do wykonywania zadań związanych z wynajmowaniem w świecie naturalnym.

punktacja częściowa

Winogrande

Test Winogrande sprawdza zdolność modelu językowego do rozwiązywania niejednoznacznych zadań uzupełniania pustych pól za pomocą opcji binarnych, które wymagają uogólnionego rozumowania zdroworozsądkowego.

7 zdjęć

Kontrola jakości

Test porównawczy CQA służy do oceny skuteczności modeli językowych w odpowiedziach na pytania jednokrotnego wyboru, które wymagają różnego rodzaju rzetelnej wiedzy.

OBQA

Test OBQA ocenia zdolność modelu językowego do udzielania zaawansowanych odpowiedzi na pytania z wykorzystaniem wieloetapowego rozumowania, zdrowej wiedzy i rozumienia tekstu sformatowanego, modelowana na podstawie otwartych egzaminów książkowych.

ARC-E

Test porównawczy ARC-e sprawdza zaawansowane umiejętności odpowiadania na pytania pochodzące z modelu językowego na poziomie szkoły podstawowej, w tym pytania jednokrotnego wyboru.

ARC-C

Test porównawczy ARC-c to bardziej zawężony podzbiór zbioru danych ARC-e zawierający tylko pytania, na które odpowiedziano nieprawidłowo za pomocą typowych algorytmów (w ramach pobierania bazy danych i wspólnego występowania słów).

5-strzałowe

TriviaQA

Test porównawczy TriviaQA sprawdza umiejętność czytania i rozumienia z potrójną częstotliwością pytania i odpowiedzi.

przekierowywanie@1

HumanEval

Test HumanEval testuje umiejętności generowania kodu modelu językowego i ocenia, czy jego rozwiązania przeszły testy jednostkowe dotyczące funkcjonalnych problemów programistycznych.

3 strzały

MBPP

Test porównawczy MBPP testuje zdolność modelu językowego do rozwiązywania podstawowych problemów z programowaniem w języku Python, koncentrując się na podstawowych koncepcjach programowania i standardowym wykorzystaniu bibliotek.

maj@1

GSM8K

Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania problemów matematycznych na poziomie szkoły, które często wymagają wieloetapowego rozumowania.

4 strzały

MATH

Test matematyczny ocenia zdolności modelu językowego do rozwiązywania złożonych problemów tekstowych matematycznych, które wymagają rozumowania, wieloetapowego rozwiązywania problemów i rozumienia pojęć matematycznych.

AGIEval

Test porównawczy AGIEval testuje ogólną inteligencję modelu językowego za pomocą pytań pochodzących z rzeczywistych egzaminów, które oceniają zdolności intelektualne człowieka (egzaminy wstępne na studia, egzaminy prawne itp.).

BBH

Analiza porównawcza BBH (BIG-Bench Hard) koncentruje się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich granice w różnych dziedzinach rozumowania i rozumienia.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma

7 m

64,3

Gemma

2b

42,3

Mistrał

7 m

62,5

LLAMA-2

13b

54,8

LLAMA-2

7 m

45,3

Gemma

7 m

81,2

Gemma

2b

71,4

Mistrał

7 m

81,0

LLAMA-2

13b

80,7

LLAMA-2

7 m

77,2

Gemma

7 m

81,2

Gemma

2b

77,3

Mistrał

7 m

82,2

LLAMA-2

13b

80,5

LLAMA-2

7 m

78,8

Gemma

7 m

51,8

Gemma

2b

49,7

Mistrał

7 m

47,0*

LLAMA-2

13b

50,3

LLAMA-2

7 m

48,3

Gemma

7 m

83,2

Gemma

2b

69,42

Mistrał

7 m

83,2*

LLAMA-2

13b

81,7

LLAMA-2

7 m

77,4

Gemma

7 m

72,3

Gemma

2b

65,4

Mistrał

7 m

74,2

LLAMA-2

13b

72,8

LLAMA-2

7 m

69,2

Gemma

7 m

71,3

Gemma

2b

65,3

Mistrał

7 m

66,3*

LLAMA-2

13b

67,3

LLAMA-2

7 m

57,8

Gemma

7 m

52,8

Gemma

2b

47,8

Mistrał

7 m

52,2

LLAMA-2

13b

57,0

LLAMA-2

7 m

58,6

Gemma

7 m

81,5

Gemma

2b

73,2

Mistrał

7 m

80,5

LLAMA-2

13b

77,3

LLAMA-2

7 m

75,2

Gemma

7 m

53,2

Gemma

2b

42,06

Mistrał

7 m

54,9

LLAMA-2

13b

49,4

LLAMA-2

7 m

45,9

Gemma

7 m

63,4

Gemma

2b

53,2

Mistrał

7 m

62,5

LLAMA-2

13b

79,6

LLAMA-2

7 m

72,1

Gemma

7 m

32,3

Gemma

2b

22,0

Mistrał

7 m

26,2

LLAMA-2

13b

18,3

LLAMA-2

7 m

12,8

Gemma

7 m

44,4

Gemma

2b

29,2

Mistrał

7 m

40,2*

LLAMA-2

13b

30,6

LLAMA-2

7 m

20,8

Gemma

7 m

46,4

Gemma

2b

17,7

Mistrał

7 m

35,4*

LLAMA-2

13b

28,7

LLAMA-2

7 m

14.6

Gemma

7 m

24,3

Gemma

2b

11,8

Mistrał

7 m

12,7

LLAMA-2

13b

3,9

LLAMA-2

7 m

2.5

Gemma

7 m

41,7

Gemma

2b

24,2

Mistrał

7 m

41,2*

LLAMA-2

13b

39,1

LLAMA-2

7 m

29,3

Gemma

7 m

55,1

Gemma

2b

35,2

Mistrał

7 m

56,1*

LLAMA-2

13b

39,4

LLAMA-2

7 m

32,6

*Szczegółowe informacje dotyczące wyników osiąganych przy użyciu innych metodologii znajdziesz w raporcie technicznym.

Odpowiedzialny rozwój AI

Odpowiedzialność przede wszystkim

Przygotowane na podstawie starannie dobranych danych, pod kątem bezpieczeństwa, wspierające bezpieczny i odpowiedzialny rozwój AI z wykorzystaniem modeli Gemma.

Solidna i przejrzysta ocena

Kompleksowe oceny i przejrzyste raportowanie ujawniają ograniczenia modelu, co pozwala przyjąć odpowiedzialne podejście do każdego przypadku użycia.

Wspieramy odpowiedzialny rozwój

Pakiet narzędzi do odpowiedzialnej generatywnej AI pomaga programistom w projektowaniu i wdrażaniu sprawdzonych metod dotyczących odpowiedzialnej AI.

Ikona Google Cloud

Zoptymalizowane pod kątem Google Cloud

Modele Gemma w Google Cloud pozwalają dokładnie dostosować model do konkretnych potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub samodzielnie zarządzanej opcji GKE i wdrożyć go w elastycznej i ekonomicznej infrastrukturze zoptymalizowanej pod kątem AI.

Przyspieszanie badań akademickich dzięki środkom na Google Cloud

Program badań akademickich właśnie się zakończył, przyznając środki Google Cloud na wsparcie badaczy przekraczających granice odkryć naukowych przy użyciu modeli Gemma. Z niecierpliwością czekamy na przełomowe badania przeprowadzone w ramach tej inicjatywy.

W przyszłości nie przegap możliwości dalszego rozwijania swoich badań dzięki Google Cloud.

Dołącz do społeczności

Nawiązuj kontakty, odkrywaj i dziel się wiedzą z innymi członkami społeczności modeli ML.

Rywalizuj, aby stworzyć najlepszego asystenta AI dla inżynierów ML

Kaggle organizuje konkurs, w którym zachęca on uczestników do używania modeli Gemmy do budowania najlepszych asystentów AI do zadań związanych z inżynierią systemów uczących się. Zwycięzcy zostaną ogłoszeni podczas Google I/O.

Dołącz do konkursu
Puchar zawody Kaggle