Omówienie modelu Gemma 3

Gemma to rodzina modeli generatywnej sztucznej inteligencji (AI), których można używać do wykonywania wielu różnych zadań związanych z generowaniem, w tym odpowiadania na pytania, streszczania i rozumowania. Modele Gemma są dostarczane z otwartymi wagami i umożliwiają odpowiedzialne wykorzystanie komercyjne, co pozwala je dostosowywać i wdrażać w ramach własnych projektów i aplikacji.

Wersja Gemma 3 zawiera te kluczowe funkcje. Wypróbuj to w AI Studio:

Modele Gemma 3 możesz pobrać z KaggleHugging Face. Więcej informacji technicznych o Gemma 3 znajdziesz w Karcie modeluRaporcie technicznym. Do pobrania są też wcześniejsze wersje modeli jądra Gemma. Więcej informacji znajdziesz w poprzednich modelach Gemma.

Wypróbuj Gemma 3 Pobierz na Kaggle Pobierz na Hugging Face

Wielomodalne dane wejściowe dotyczące obrazu i tekstu

Dzięki Gemma 3 możesz wykonywać bardziej złożone zadania związane z analizą i generowaniem, ponieważ narzędzie to obsługuje dane obrazowe i tekstowe. Możesz używać tego modelu do interpretowania danych obrazowych, rozpoznawania obiektów, wyodrębniania danych tekstowych i wykonywania wielu innych zadań związanych z przekształcaniem danych wizualnych w tekst. Rozpocznij tworzenie

Okno kontekstu obsługujące 128 tys. tokenów

Modele Gemma 3 mogą obsługiwać prompty z maksymalnie 128 tys. tokenów, czyli 16-krotnie większym oknem kontekstu niż poprzednie modele Gemma. Duża liczba tokenów oznacza, że możesz przetwarzać kilka artykułów wielostronicowych, dłuższych artykułów lub setki obrazów w ramach jednego promptu.

Obsługa wielu języków

Pracuj w swoim języku dzięki wbudowanemu w systemie tłumaczeniu ponad 140 języków. Gemma 3 jest trenowana pod kątem obsługi większej liczby języków w porównaniu z poprzednimi wersjami Gemma, dzięki czemu możesz wykonywać więcej zadań tekstowych i wizualnych w językach, których używają Twoi klienci. Rozpocznij tworzenie

Rozmiary parametrów i kwantyzacja

Modele Gemma 3 są dostępne w 4 rozmiarach parametrów i 5 poziomach dokładności, od pełnej dokładności 32-bitowej do najniższej dokładności 4-bitowej. Różne rozmiary i dokładności to zestaw kompromisów w przypadku aplikacji AI. Modele z większymi parametrami i liczbą bitów (większa precyzja) są zazwyczaj wydajniejsze, ale ich uruchomienie jest droższe pod względem cykli przetwarzania, kosztu pamięci i poboru mocy. Modele z mniejszą liczbą parametrów i bitów (niższą dokładnością) mają mniejsze możliwości, ale mogą wystarczyć do Twojego zadania AI. W tabeli poniżej znajdziesz przybliżone wymagania dotyczące pamięci GPU lub TPU na potrzeby wykonywania wnioskowania w przypadku każdej wersji modelu Gemma 3.

Parametry Pełna wersja 32-bitowa BF16 (16-bit) SFP8
(8-bit)
Q4_0
(4-bit)
INT4
(4-bit)
Gemma 3 1B (tylko tekst) 4 GB 1,5 GB 1,1 GB 892 MB 861 MB
Gemma 3 4B 16 GB 6,4 GB 4,4 GB 3,4 GB 3,2 GB
Gemma 3 12B 48 GB 20 GB 12,2 GB 8,7 GB 8,2 GB
Gemma 3 27B 108 GB 46,4 GB 29,1 GB 21 GB 19,9 GB

Tabela 1. Przybliżona pamięć GPU lub TPU wymagana do wczytania modeli Gemma 3 na podstawie liczby parametrów i poziomu kwantyzacji (głębi bitowej).

Zużycie pamięci wzrasta w zależności od łącznej liczby tokenów wymaganych do uruchomienia prompta. Im większa liczba tokenów potrzebnych do przetworzenia promptu, tym więcej pamięci jest wymagane (oprócz pamięci potrzebnej do załadowania modelu).

Wcześniejsze modele Gemmy

Możesz pracować z modelami Gemma z poprzednich generacji, które są też dostępne w KaggleHugging Face. Więcej informacji technicznych o poprzednich modelach Gemma znajdziesz na tych stronach z kartami modeli:

Chcesz zacząć tworzyć? Pierwsze kroki z modelami Gemma