Modele Gemma Open
Rodzina lekkich, najnowocześniejszych otwartych modeli opracowanych na podstawie tych samych badań i technologii, które służyły do tworzenia modeli Gemini.
Witryna jest odpowiedzialna
Modele te, obejmujące kompleksowe środki bezpieczeństwa, pomagają zapewnić odpowiedzialne i godne zaufania rozwiązania AI przez wyselekcjonowane zbiory danych i rygorystyczne dostrajanie.
Niezrównana skuteczność w danym rozmiarze
Modele Gemma osiągają znakomite wyniki porównawcze przy 2 mld i 7 mld rozmiarów, nawet jeśli radzą sobie z większymi modelami otwartymi.
Elastyczna platforma
Keras 3.0 zapewnia pełną zgodność z JAX, TensorFlow i PyTorch, umożliwiając łatwe wybieranie i przełączanie platform w zależności od zadania.
Wersje modelu Gemma
Krótkie przewodniki dla programistów
Krótkie przewodniki dla partnerów
Wkrótce udostępnimy więcej przewodników dla partnerów
Porównanie
Gemma wyznacza nowy styl najnowocześniejszych rozwiązań pod względem wielkości w porównaniu z popularnymi modelami, takimi jak Llama 2 czy Mistral 7B.
5 ujęć, top 1
protokół MMLU
Test porównawczy MMLU to test, który mierzy zakres wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe (LLM) podczas wstępnego trenowania.
0 strzałów
HellaSwag
Test HellaSwag podważa zdolność modelu językowego do rozumienia i stosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.
0 strzałów
PIQA
Test porównawczy PIQA sprawdza zdolność modelu językowego do rozumienia i stosowania zdrowej wiedzy fizycznej przez udzielenie odpowiedzi na pytania dotyczące codziennych interakcji fizycznych.
0 strzałów
SIQA
Test SIQA pozwala ocenić rozumienie interakcji społecznych i zdrowego rozsądku przez model językowy, zadając pytania o działania ludzi i ich implikacje społeczne.
0 strzałów
Boolq
Test porównawczy BoolQ sprawdza zdolność modelu językowego do odpowiadania na pytania naturalnie występujące (generowane w ustawieniach bez podpowiedzi i nieograniczonych) pytań tak/nie, testując zdolność modeli do wykonywania zadań związanych z wynajmowaniem w świecie naturalnym.
punktacja częściowa
Winogrande
Test Winogrande sprawdza zdolność modelu językowego do rozwiązywania niejednoznacznych zadań uzupełniania pustych pól za pomocą opcji binarnych, które wymagają uogólnionego rozumowania zdroworozsądkowego.
7 zdjęć
Kontrola jakości
Test porównawczy CQA służy do oceny skuteczności modeli językowych w odpowiedziach na pytania jednokrotnego wyboru, które wymagają różnego rodzaju rzetelnej wiedzy.
OBQA
Test OBQA ocenia zdolność modelu językowego do udzielania zaawansowanych odpowiedzi na pytania z wykorzystaniem wieloetapowego rozumowania, zdrowej wiedzy i rozumienia tekstu sformatowanego, modelowana na podstawie otwartych egzaminów książkowych.
ARC-E
Test porównawczy ARC-e sprawdza zaawansowane umiejętności odpowiadania na pytania pochodzące z modelu językowego na poziomie szkoły podstawowej, w tym pytania jednokrotnego wyboru.
ARC-C
Test porównawczy ARC-c to bardziej zawężony podzbiór zbioru danych ARC-e zawierający tylko pytania, na które odpowiedziano nieprawidłowo za pomocą typowych algorytmów (w ramach pobierania bazy danych i wspólnego występowania słów).
5-strzałowe
TriviaQA
Test porównawczy TriviaQA sprawdza umiejętność czytania i rozumienia z potrójną częstotliwością pytania i odpowiedzi.
przekierowywanie@1
HumanEval
Test HumanEval testuje umiejętności generowania kodu modelu językowego i ocenia, czy jego rozwiązania przeszły testy jednostkowe dotyczące funkcjonalnych problemów programistycznych.
3 strzały
MBPP
Test porównawczy MBPP testuje zdolność modelu językowego do rozwiązywania podstawowych problemów z programowaniem w języku Python, koncentrując się na podstawowych koncepcjach programowania i standardowym wykorzystaniu bibliotek.
maj@1
GSM8K
Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania problemów matematycznych na poziomie szkoły, które często wymagają wieloetapowego rozumowania.
4 strzały
MATH
Test matematyczny ocenia zdolności modelu językowego do rozwiązywania złożonych problemów tekstowych matematycznych, które wymagają rozumowania, wieloetapowego rozwiązywania problemów i rozumienia pojęć matematycznych.
AGIEval
Test porównawczy AGIEval testuje ogólną inteligencję modelu językowego za pomocą pytań pochodzących z rzeczywistych egzaminów, które oceniają zdolności intelektualne człowieka (egzaminy wstępne na studia, egzaminy prawne itp.).
BBH
Analiza porównawcza BBH (BIG-Bench Hard) koncentruje się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich granice w różnych dziedzinach rozumowania i rozumienia.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
Gemma
7 m
Gemma
2b
Mistrał
7 m
LLAMA-2
13b
LLAMA-2
7 m
*Szczegółowe informacje dotyczące wyników osiąganych przy użyciu innych metodologii znajdziesz w raporcie technicznym.
Już dziś wejdź do Gemma
Modele Gemma są dostępne we wszystkich Twoich ulubionych centrach z modelami.
Odpowiedzialny rozwój AI
Odpowiedzialność przede wszystkim
Przygotowane na podstawie starannie dobranych danych, pod kątem bezpieczeństwa, wspierające bezpieczny i odpowiedzialny rozwój AI z wykorzystaniem modeli Gemma.
Solidna i przejrzysta ocena
Kompleksowe oceny i przejrzyste raportowanie ujawniają ograniczenia modelu, co pozwala przyjąć odpowiedzialne podejście do każdego przypadku użycia.
Wspieramy odpowiedzialny rozwój
Pakiet narzędzi do odpowiedzialnej generatywnej AI pomaga programistom w projektowaniu i wdrażaniu sprawdzonych metod dotyczących odpowiedzialnej AI.
Zoptymalizowane pod kątem Google Cloud
Modele Gemma w Google Cloud pozwalają dokładnie dostosować model do konkretnych potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub samodzielnie zarządzanej opcji GKE i wdrożyć go w elastycznej i ekonomicznej infrastrukturze zoptymalizowanej pod kątem AI.
Przyspieszanie badań akademickich dzięki środkom na Google Cloud
Program badań akademickich właśnie się zakończył, przyznając środki Google Cloud na wsparcie badaczy przekraczających granice odkryć naukowych przy użyciu modeli Gemma. Z niecierpliwością czekamy na przełomowe badania przeprowadzone w ramach tej inicjatywy.
Dołącz do społeczności
Nawiązuj kontakty, odkrywaj i dziel się wiedzą z innymi członkami społeczności modeli ML.
Rywalizuj, aby stworzyć najlepszego asystenta AI dla inżynierów ML
Kaggle organizuje konkurs, w którym zachęca on uczestników do używania modeli Gemmy do budowania najlepszych asystentów AI do zadań związanych z inżynierią systemów uczących się. Zwycięzcy zostaną ogłoszeni podczas Google I/O.
Dołącz do konkursu