Omówienie modeli Gemma

Gemma to rodzina lekkich, najnowocześniejszych otwartych modeli stworzonych na podstawie tych samych badań i technologii, które służyły do tworzenia modeli Gemini. Opracowana przez Google DeepMind i inne zespoły Google nazwa Gemma pochodzi od łacińskiego słowa gemma, co oznacza „kamień szlachetny”. Wagi modelu Gemma są obsługiwane przez narzędzia dla programistów promujące innowacyjność, współpracę i odpowiedzialne wykorzystanie sztucznej inteligencji (AI).

Modele Gemma można uruchamiać w aplikacjach oraz na sprzęcie, urządzeniach mobilnych i usługach hostowanych. Możesz też dostosowywać te modele za pomocą technik dostrajania, aby znakomicie wykonywać zadania ważne dla Ciebie i Twoich użytkowników. Modele Gemma czerpią inspirację i pochodzenie technologiczne z rodziny modeli Gemini. Zostały stworzone z myślą o twórcach AI, które mogą rozwijać i rozwijać AI.

Możesz używać modeli Gemma do generowania tekstu, ale możesz je też dostosowywać, by specjalizowały się w wykonywaniu konkretnych zadań. Dostrojone modele Gemma mogą zapewnić Tobie i Twoim użytkownikom bardziej ukierunkowane i skuteczne rozwiązania generatywnej AI. Sprawdź nasz przewodnik po dostrajaniu z LoRA i wypróbuj go. Nie możemy się doczekać, by zobaczyć, co stworzysz z Gemmą.

Ta dokumentacja dla programistów zawiera przegląd dostępnych modeli Gemma i przewodniki po ich tworzeniu, w których dowiesz się, jak je stosować i dostosowywać pod kątem konkretnych aplikacji.

Rozmiary i możliwości modelu

Modele Gemma są dostępne w kilku rozmiarach, dzięki czemu możesz tworzyć rozwiązania generatywnej AI na podstawie dostępnych zasobów obliczeniowych, potrzebnych możliwości i miejsca ich uruchomienia. Jeśli nie wiesz, od czego zacząć, wypróbuj rozmiar parametru 2 B, aby spełnić niższe wymagania dotyczące zasobów i większą elastyczność przy wdrażaniu modelu.

Rozmiar parametrów Wejście Wyjście Wersje dostrojone Platformy docelowe
2B Tekst Tekst
  • Wytrenowany
  • Instrukcja dostrojona
Urządzenia mobilne i laptopy
7 MLD Tekst Tekst
  • Wytrenowany
  • Instrukcja dostrojona
Komputery stacjonarne i małe serwery

Dzięki wieloobsługowej funkcji Keras 3.0 możesz uruchamiać te modele w TensorFlow, JAX i PyTorch, a nawet używać natywnych implementacji JAX (opartych na platformie FLAX) i PyTorch.

Modele Gemma możesz pobrać z Kaggle Models.

Dostrojone modele

Działanie modeli Gemma możesz modyfikować przez dodatkowe trenowanie, aby lepiej radziły sobie z określonymi zadaniami. Ten proces jest nazywany dostrajaniem modelu i chociaż zwiększa zdolność modelu do wykonywania ukierunkowanych zadań, może też pogorszyć się w przypadku innych zadań. Z tego powodu modele Gemma są dostępne zarówno w wersjach dostrojonych, jak i już wytrenowanych:

  • Wytrenowane – te wersje modelu nie są trenowane do żadnych konkretnych zadań ani instrukcji spoza zbioru podstawowych danych Gemma do trenowania danych. Nie należy wdrażać tych modeli bez dostrajania.
  • Dostosowana instrukcja – te wersje modelu są trenowane na podstawie interakcji ludzkich i mogą reagować na polecenia konwersacyjne – podobnie jak czatboty.

Rozpocznij

Zapoznaj się z tymi przewodnikami, aby zacząć tworzyć rozwiązania z użyciem Gemmy: