Gemma Open Models
Rodzina lekkiego, nowoczesnego modelu otwartego stworzonego na podstawie tych samych badań i technologii, które posłużyły do stworzenia modeli Gemini
Przedstawiamy
Gemma 2
Gemma 2 została zaprojektowana z myślą o wyjątkowej wydajności i niespotykanej efektywności. Optymalizuje szybkie wnioskowanie na różnych rodzajach sprzętu.
5-shot
MMLU
Test porównawczy MMLU to test mający na celu ocenę zakresu wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego trenowania.
25-shot
ARC-C
Test porównawczy ARC-c to bardziej precyzyjny podzbiór zbioru danych ARC-e, który zawiera tylko pytania, na które często udzielono odpowiedzi niewłaściwie za pomocą typowych algorytmów (wywołania baz danych i wspólnego występowania słów).
5 strzałów
GSM8K
Test porównawczy GSM8K sprawdza zdolność modelu językowego do rozwiązywania zadań matematycznych na poziomie szkoły podstawowej, które często wymagają kilkuetapowego rozumowania.
3–5 strzałów
AGIEval
Benchmark AGIEval sprawdza ogólną inteligencję modelu językowego za pomocą pytań pochodzących z egzaminów rzeczywistych, które mają na celu ocenę ludzkich zdolności intelektualnych.
3-shot, CoT
BBH
Test porównawczy BBH (BIG-Bench Hard) skupia się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich ograniczenia w różnych dziedzinach rozumowania i rozumienia.
3-shot, F1
UPUŚĆ
DROP to test czytania ze zrozumieniem, który wymaga logicznego myślenia na podstawie akapitów.
5-shot
Winogrande
W ramach testu porównawczego Winogrande sprawdzamy, czy model językowy potrafi rozwiązywać niejednoznaczne zadania polegające na wypełnianiu luk w tekście za pomocą opcji binarnych, co wymaga ogólnego rozumowania zdroworozsądkowego.
10 ujęć
HellaSwag
Wyzwanie HellaSwag sprawdza umiejętność modelu językowego do zrozumienia i zastosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.
4-strzałowe
MATH
MATH ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych z matematyki, które wymagają rozumowania, wieloetapowego rozwiązywania problemów i rozumienia pojęć matematycznych.
0-shot
ARC-e
Test ARC-e sprawdza zaawansowane umiejętności modela językowego w zakresie udzielania odpowiedzi na pytania za pomocą autentycznych pytań z jednego z poziomów szkoły podstawowej dotyczących nauk przyrodniczych.
0-shot
PIQA
W ramach testu PIQA sprawdzamy, czy model językowy potrafi zrozumieć i zastosować wiedzę o rzeczywistości fizycznej, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.
0-shot
SIQA
W ramach testu SIQA ocenia się, jak dobrze model językowy rozumie interakcje społeczne i zmysł społeczny, zadając pytania o działania ludzi i ich konsekwencje społeczne.
0-shot
Boolq
Test porównawczy BoolQ sprawdza zdolność modelu językowego do udzielania odpowiedzi na pytania typu tak/nie, testując jego zdolność do wykonywania zadań wnioskowania w języku naturalnym w rzeczywistych warunkach.
5-shot
TriviaQA
Benchmark TriviaQA sprawdza umiejętności czytania ze zrozumieniem za pomocą trójek pytanie-odpowiedź-dowód.
5-shot
NQ
W ramach testu porównawczego NQ (Natural Questions) sprawdzana jest zdolność modelu językowego do znajdowania i rozumienia odpowiedzi w całych artykułach w Wikipedii, co symuluje rzeczywiste scenariusze udzielania odpowiedzi na pytania.
pass@1
HumanEval
Test porównawczy HumanEval sprawdza możliwości generacji kodu przez model językowy, oceniając, czy jego rozwiązania przechodzą testy jednostkowe funkcjonalności dotyczące problemów z programowaniem.
3-shot
MBPP
Test MBPP sprawdza, czy model językowy potrafi rozwiązywać podstawowe problemy programistyczne w Pythonie, koncentrując się na podstawowych pojęciach programistycznych i używaniu standardowych bibliotek.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 MLD
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8 MLD
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 mln
Mistral
7B
LLAMA 3
8B
Gemma 1
7 MLD
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7 MLD
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7 MLD
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 mln
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 mln
Mistral
7B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
*To punkty odniesienia dla wstępnie wytrenowanych modeli. Szczegółowe informacje o wydajności w przypadku innych metod znajdziesz w raporcie technicznym.
Rodzina modeli Gemma
Poznaj nasze narzędzia
Krótkie przewodniki dla deweloperów
Krótkie przewodniki dla partnerów
Gemma Cookbook
Poznaj kolekcję praktycznych receptur i przykładów, które pokazują potencjał i wszechstronność Gemma do wykonywania takich zadań jak dodawanie podpisów do obrazów za pomocą PaliGemma, generowanie kodu za pomocą CodeGemma czy tworzenie chatbotów za pomocą dopracowanych modeli Gemma.
Odpowiedzialny rozwój AI
Odpowiedzialność w fazie projektowania
Są wstępnie wytrenowane na podstawie starannie dobranych danych oraz zoptymalizowane pod kątem bezpieczeństwa, co pomaga w bezpiecznym i odpowiedzialnym rozwijaniu AI z wykorzystaniem modeli Gemma.
Rzetelna i przejrzysta ocena
Kompleksowe oceny i przejrzyste raporty ujawniają ograniczenia modelu, aby umożliwić odpowiedzialne podejście do każdego przypadku użycia.
Odpowiedzialny rozwój
Zestaw narzędzi odpowiedzialnej generatywnej AI pomaga programistom projektować i wdrażać sprawdzone metody dotyczące odpowiedzialnej AI.
Zoptymalizowane pod kątem Google Cloud
Dzięki modelom Gemma w Google Cloud możesz szczegółowo dostosować model do swoich potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub opcji samodzielnego zarządzania GKE i wdrożyć go w elastycznej i opłacalnej infrastrukturze zoptymalizowanej pod kątem AI.
Przyspieszanie badań akademickich dzięki środkom w Google Cloud
W ramach programu Academic Research Program niedawno zakończyliśmy przyjmowanie zgłoszeń. Współpracujący z nami badacze, którzy korzystają z modeli Gemma, otrzymali środki na Google Cloud. Cieszymy się, że dzięki tej inicjatywie powstają przełomowe badania.
Dołącz do społeczności
Nawiązuj kontakty, poznawaj i udostępniaj swoją wiedzę innym członkom społeczności modeli ML.