Gemma to rodzina lekkich, najnowocześniejszych otwartych modeli stworzonych na podstawie tych samych badań i technologii, które służyły do tworzenia modeli Gemini. Opracowana przez Google DeepMind i inne zespoły Google nazwa Gemma pochodzi od łacińskiego słowa gemma, co oznacza „kamień szlachetny”. Wagi modelu Gemma są obsługiwane przez narzędzia dla programistów promujące innowacyjność, współpracę i odpowiedzialne wykorzystanie sztucznej inteligencji (AI).
Modele Gemma można uruchamiać w aplikacjach oraz na sprzęcie, urządzeniach mobilnych i usługach hostowanych. Możesz też dostosowywać te modele za pomocą technik dostrajania, aby znakomicie wykonywać zadania ważne dla Ciebie i Twoich użytkowników. Modele Gemma czerpią inspirację i pochodzenie technologiczne z rodziny modeli Gemini. Zostały stworzone z myślą o twórcach AI, które mogą rozwijać i rozwijać AI.
Możesz używać modeli Gemma do generowania tekstu, ale możesz je też dostosowywać, by specjalizowały się w wykonywaniu konkretnych zadań. Dostrojone modele Gemma mogą zapewnić Tobie i Twoim użytkownikom bardziej ukierunkowane i skuteczne rozwiązania generatywnej AI. Sprawdź nasz przewodnik po dostrajaniu z LoRA i wypróbuj go. Nie możemy się doczekać, by zobaczyć, co stworzysz z Gemmą.
Ta dokumentacja dla programistów zawiera przegląd dostępnych modeli Gemma i przewodniki po ich tworzeniu, w których dowiesz się, jak je stosować i dostosowywać pod kątem konkretnych aplikacji.
Rozmiary i możliwości modelu
Modele Gemma są dostępne w kilku rozmiarach, dzięki czemu możesz tworzyć rozwiązania generatywnej AI na podstawie dostępnych zasobów obliczeniowych, potrzebnych możliwości i miejsca ich uruchomienia. Jeśli nie wiesz, od czego zacząć, wypróbuj rozmiar parametru 2 B, aby spełnić niższe wymagania dotyczące zasobów i większą elastyczność przy wdrażaniu modelu.
Rozmiar parametrów | Wejście | Wyjście | Wersje dostrojone | Platformy docelowe |
---|---|---|---|---|
2B | Tekst | Tekst |
|
Urządzenia mobilne i laptopy |
7 MLD | Tekst | Tekst |
|
Komputery stacjonarne i małe serwery |
Dzięki wieloobsługowej funkcji Keras 3.0 możesz uruchamiać te modele w TensorFlow, JAX i PyTorch, a nawet używać natywnych implementacji JAX (opartych na platformie FLAX) i PyTorch.
Modele Gemma możesz pobrać z Kaggle Models.
Dostrojone modele
Działanie modeli Gemma możesz modyfikować przez dodatkowe trenowanie, aby lepiej radziły sobie z określonymi zadaniami. Ten proces jest nazywany dostrajaniem modelu i chociaż zwiększa zdolność modelu do wykonywania ukierunkowanych zadań, może też pogorszyć się w przypadku innych zadań. Z tego powodu modele Gemma są dostępne zarówno w wersjach dostrojonych, jak i już wytrenowanych:
- Wytrenowane – te wersje modelu nie są trenowane do żadnych konkretnych zadań ani instrukcji spoza zbioru podstawowych danych Gemma do trenowania danych. Nie należy wdrażać tych modeli bez dostrajania.
- Dostosowana instrukcja – te wersje modelu są trenowane na podstawie interakcji ludzkich i mogą reagować na polecenia konwersacyjne – podobnie jak czatboty.
Rozpocznij
Zapoznaj się z tymi przewodnikami, aby zacząć tworzyć rozwiązania z użyciem Gemmy:
- Generowanie tekstu za pomocą narzędzia Gemma – tworzenie podstawowego przykładu generowania tekstu za pomocą modelu.
- Tune Gemma z dostrajaniem LoRA – dostrajanie LoRA na modelu Gemma 2B.
- Dostrajanie modelu Gemma przy użyciu trenowania rozproszonego – użyj Keras z backendem JAX, aby dostroić model Gemma 7B z użyciem LoRA i równoległości modelu.
- Gemma w PyTorch – wygeneruj tekst przy użyciu Gemma za pomocą PyTorch.
- Wdrażanie Gemma w środowisku produkcyjnym – za pomocą Vertex AI możesz wdrożyć Gemma w środowisku produkcyjnym.