Modele Gemma Open
Rodzina lekkiego, nowoczesnego modelu otwartego stworzonego na podstawie tych samych badań i technologii, które posłużyły do stworzenia modeli Gemini
Przedstawiamy
Gemma 2
Gemma 2 została zaprojektowana z myślą o wyjątkowej wydajności i niespotykanej efektywności. Umożliwia błyskawiczne wnioskowanie na różnych urządzeniach.
5 strzałów
MMLU
Test MMLU to test, który mierzy zakres wiedzy i umiejętności rozwiązywania problemów nabytych przez duże modele językowe podczas wstępnego treningu.
25-strzałowa
ARC-C
Test porównawczy ARC-c to bardziej precyzyjny podzbiór zbioru danych ARC-e, który zawiera tylko pytania, na które często udzielono odpowiedzi niewłaściwie za pomocą typowych algorytmów (wywołania baz danych i wspólnego występowania słów).
5-shot
GSM8K
Test GSM8K sprawdza, czy model językowy potrafi rozwiązywać zadania matematyczne na poziomie szkoły podstawowej, które często wymagają kilkuetapowego rozumowania.
3–5 strzałów
AGIEval
Test porównawczy AGIEval sprawdza ogólną inteligencję modelu językowego, używając pytań pochodzących z prawdziwych egzaminów, których celem jest ocena ludzkich zdolności intelektualnych.
3-shot, CoT
BBH
Test porównawczy BBH (BIG-Bench Hard) skupia się na zadaniach wykraczających poza możliwości obecnych modeli językowych, testując ich ograniczenia w różnych dziedzinach rozumowania i rozumienia.
3-shot, F1
UPUŚĆ
DROP to test porównawczy ze zrozumieniem tekstu, który wymaga dyskretnego rozumowania nad akapitami.
5 strzałów
Winogrande
W ramach testu porównawczego Winogrande sprawdzamy, czy model językowy potrafi rozwiązywać niejednoznaczne zadania typu „uzupełnij luki” za pomocą opcji binarnych, co wymaga ogólnego rozumowania zdroworozsądkowego.
10-strzałowa
HellaSwag
Test porównawczy HellaSwag kwestionuje zdolność modelu językowego do zrozumienia i stosowania zdrowego rozsądku, wybierając najbardziej logiczne zakończenie historii.
4-strzałowe
MATH
MATEMATYCZNE ocenia zdolność modelu językowego do rozwiązywania złożonych zadań tekstowych, wymagających rozumowania, wieloetapowego rozwiązywania problemów i zrozumienia pojęć matematycznych.
0 strzałów
ARC-e
Test porównawczy ARC-e sprawdza zaawansowane umiejętności odpowiadania na pytania modelu językowego na podstawie autentycznych pytań jednokrotnego wyboru na poziomie szkoły średniej.
0-shot
PIQA
W ramach testu PIQA sprawdzamy, czy model językowy potrafi zrozumieć i zastosować wiedzę o rzeczywistości fizycznej, odpowiadając na pytania dotyczące codziennych interakcji fizycznych.
0 strzałów
SIQA
Test porównawczy SIQA służy do oceny zrozumienia interakcji społecznych i zdrowego rozsądku przez model językowy przez zadawanie pytań o działania ludzi i ich konsekwencje społeczne.
0 strzałów
Boolq
Test BoolQ sprawdza zdolność modelu językowego do udzielania odpowiedzi na pytania typu tak/nie, które występują w naturze. Testuje on też zdolność modeli do wykonywania zadań wnioskowania w języku naturalnym w rzeczywistych warunkach.
5 strzałów
TriviaQA
Test porównawczy TriviaQA sprawdza umiejętność czytania ze zrozumieniem za pomocą potrójnych dowodów na pytanie, odpowiedź i odpowiedź.
5-shot
NQ
Benchmark NQ (Natural Questions) sprawdza, jak model językowy radzi sobie z wyszukiwaniem i rozumieniem odpowiedzi w całych artykułach w Wikipedii, symulując rzeczywiste scenariusze odpowiadania na pytania.
karta@1
HumanEval
Test porównawczy HumanEval sprawdza możliwości generacji kodu przez model językowy, oceniając, czy jego rozwiązania przechodzą testy jednostkowe funkcjonalności dotyczące problemów z programowaniem.
3-shot
MBPP
Test MBPP sprawdza, czy model językowy potrafi rozwiązywać podstawowe problemy programistyczne w Pythonie, koncentrując się na podstawowych pojęciach programistycznych i użyciu standardowych bibliotek.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 MLD
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
LLAMA 3
8 MLD
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7B
LLAMA 3
8B
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
LLAMA 3
8 MLD
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 MLD
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 MLD
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7B
Gemma 2
9 B
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7B
Gemma 2
9 MLD
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7 MLD
Gemma 2
9 B
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
Gemma 1
2,5 mln
Gemma 2
2,6 MLD
Mistral
7B
Gemma 1
7 MLD
Gemma 2
9 MLD
Gemma 2
27B
*To są testy porównawcze wstępnie wytrenowanych modeli. Szczegółowe informacje o wydajności w połączeniu z innymi metodologiami znajdziesz w raporcie technicznym.
Rodzina modeli Gemma
Poznaj nasze narzędzia
Krótkie przewodniki dla deweloperów
Krótkie przewodniki dla partnerów
Gemma Cookbook
Odkryj kolekcję praktycznych przepisów i przykładów, które pokazują możliwości i wszechstronność Gemmy w takich zadaniach jak tworzenie podpisów obrazów w PaliGemma, generowanie kodu w CodeGemma czy tworzenie czatbotów z dopracowanymi modelami.
Odpowiedzialny rozwój AI
Odpowiedzialność w fazie projektowania
Są wstępnie wytrenowane na podstawie starannie dobranych danych oraz zoptymalizowane pod kątem bezpieczeństwa, co pomaga w bezpiecznym i odpowiedzialnym rozwijaniu AI z wykorzystaniem modeli Gemma.
Solidna i przejrzysta ocena
Kompleksowe oceny i przejrzyste raporty ujawniają ograniczenia modelu, aby umożliwić odpowiedzialne podejście do każdego przypadku użycia.
Odpowiedzialny rozwój
Pakiet narzędzi odpowiedzialnej generatywnej AI pomaga deweloperom projektować i wdrażać sprawdzone metody w zakresie odpowiedzialnej AI.
Zoptymalizowane pod kątem Google Cloud
Dzięki modelom Gemma w Google Cloud możesz szczegółowo dostosować model do swoich potrzeb za pomocą w pełni zarządzanych narzędzi Vertex AI lub opcji samodzielnego zarządzania GKE i wdrożyć go w elastycznej i opłacalnej infrastrukturze zoptymalizowanej pod kątem AI.
Przyspieszanie badań akademickich dzięki środkom na Google Cloud
Niedawno zakończył się okres przyjmowania zgłoszeń do programu badań naukowych, w ramach którego przyznaliśmy środki na Google Cloud, aby wspierać badaczy przekraczania granic odkryć naukowych za pomocą modeli Gemma. Cieszymy się, że dzięki tej inicjatywie powstają przełomowe badania.
Dołącz do społeczności
Nawiązuj kontakty, poznawaj i udostępniaj swoją wiedzę innym członkom społeczności modeli ML.