Modele Gemini

Gemini to rodzina modeli generatywnej AI, która umożliwia deweloperom generowanie treści i rozwiązywanie problemów. Modele te są projektowane i trenowane pod kątem obsłużenia tekstu i obrazów jako danych wejściowych. W tym przewodniku znajdziesz informacje o każdym z wariantów modelu, które pomogą Ci wybrać, który najlepiej pasuje do Twojego przypadku użycia.

Oto krótkie podsumowanie dostępnych modeli i ich możliwości:

Modele Dane wejściowe Wyniki
Bliskie
  • Gemini 1.5 Pro (tylko wersja przedpremierowa)
Tekst i obrazy Tekst
  • Gemini 1.0 Pro
Tekst Tekst
  • Gemini 1.0 Pro Vision
Tekst i obrazy Tekst
Umieszczanie
  • Umieszczanie
Tekst Wektory dystrybucyjne tekstu
Pobieranie
  • reakcja akustyczna
Tekst Tekst

Bezpieczeństwo i przeznaczenie

Modele generatywnej sztucznej inteligencji to zaawansowane narzędzia, ale nie są bez ograniczeń. Ich uniwersalność i stosowanie może czasem prowadzić do nieoczekiwanych rezultatów, na przykład niedokładnych, stronniczych lub obraźliwych. Przetwarzanie końcowe i rygorystyczna ocena ręczna mają kluczowe znaczenie w ograniczaniu ryzyka pogorszenia wyników takich produktów. Dodatkowe sugestie dotyczące bezpiecznego użytkowania znajdziesz w wytycznych dotyczących bezpieczeństwa.

Modele udostępniane przez interfejs Gemini API mogą być używane w wielu różnych aplikacjach generatywnej AI i przetwarzania języka naturalnego (NLP). Z tych funkcji można korzystać tylko przez interfejs Gemini API lub aplikację internetową Google AI Studio. Korzystanie z interfejsu Gemini API podlega też Zasadom dotyczącym niedozwolonych zastosowań generatywnej AI oraz Warunkom korzystania z interfejsu API Gemini.

Rozmiary modelu

W tabeli poniżej znajdziesz dostępne rozmiary i ich znaczenie w porównaniu z pozostałymi.

Rozmiar modelu Opis Usługi
Gemini 1.0 Pro Rozmiar modelu zapewniający równowagę między możliwościami i wydajnością.
  • plik tekstowy,
  • czat

Wersje modelu

Modele Gemini są dostępne w wersjach podglądowych i stabilnych. W kodzie możesz użyć jednego z poniższych formatów nazwy modelu, aby określić, którego modelu i wersji chcesz używać.

  • Najnowsze: wskazuje najnowocześniejszą wersję modelu na potrzeby określonej generacji i określonej odmiany. Bazowy model jest regularnie aktualizowany i może być wersją przedpremierową. Tego aliasu należy używać tylko w aplikacjach i prototypach do celów testowych.

    Aby określić najnowszą wersję, użyj tego wzorca: <model>-<generation>-<variation>-latest. Przykład: gemini-1.0-pro-latest.

  • Najnowsza stabilna: wskazuje najnowszą wersję stabilną opublikowaną na potrzeby określonej generacji modelu i jej odmiany.

    Aby określić najnowszą stabilną wersję, użyj tego wzorca: <model>-<generation>-<variation>. Na przykład: gemini-1.0-pro.

  • Stabilna: wskazuje konkretny model stabilny. Modele stabilne nie zmieniają się. Większość aplikacji produkcyjnych powinna używać określonego stabilnego modelu.

    Aby określić stabilną wersję, użyj tego wzorca: <model>-<generation>-<variation>-<version>. Przykład: gemini-1.0-pro-001.

Informacje o modelach, które mają wersję stabilną, znajdziesz w wierszu „Nazwy modeli” w sekcji Odmiany modeli.

Odmiany modelu

Interfejs Gemini API udostępnia różne modele zoptymalizowane pod kątem konkretnych przypadków użycia. W tabeli poniżej opisujemy atrybuty każdego z nich.

Różnorodność Atrybut Opis
Gemini 1.5 Pro (tylko wersja przedpremierowa) Ostatnia aktualizacja modelu Kwiecień 2024 r.
Kod modelu models/gemini-1.5-pro-latest
Możliwości modelu
  • Wejście: audio, obraz, tekst
  • Dane wyjściowe: tekst
  • Zoptymalizowany pod kątem zadań językowych, takich jak:
    • Generowanie kodu
    • Generowanie tekstu
    • Edytowanie tekstu
    • Rozwiązywanie problemów
    • Generowanie rekomendacji
    • Wyodrębnianie informacji
    • Wyodrębnianie lub generowanie danych
    • Agent AI
  • Może obsługiwać zadania typu zero, one i few-shot.
Obsługiwane metody generowania generateContent
Limit tokenów wejściowych 1048576
Limit tokenów wyjściowych 8192
Bezpieczeństwo modelu Automatycznie stosowane ustawienia bezpieczeństwa, które deweloperzy mogą zmienić. Więcej informacji znajdziesz w temacie dotyczącym ustawień bezpieczeństwa.
Limit żądań 2 zapytania na minutę, 1000 zapytań dziennie[1]
Gemini Pro, Ostatnia aktualizacja modelu Luty 2024 r.
Kod modelu models/gemini-pro
Możliwości modelu
  • Dane wejściowe: tekst
  • Dane wyjściowe: tekst
  • Generuje tekst.
  • Obsługuje wieloetapowy format rozmowy.
  • Może obsługiwać zadania typu zero, one i few-shot.
Obsługiwane metody generowania generateContent
Limit tokenów wejściowych 30720
Limit tokenów wyjściowych 2048
Bezpieczeństwo modelu Automatycznie stosowane ustawienia bezpieczeństwa, które deweloperzy mogą zmienić. Więcej informacji znajdziesz w temacie dotyczącym ustawień bezpieczeństwa.
Limit żądań 60 żądań na minutę [1]
Nazwy modeli
  • Najnowsza wersja: gemini-1.0-pro-latest
  • Najnowsza stabilna wersja: gemini-1.0-pro
  • Wersje stabilne:
    • gemini-1.0-pro-001
Gemini 1.0 Pro Vision Ostatnia aktualizacja modelu Grudzień 2023 r.
Kod modelu models/gemini-pro-vision
Możliwości modelu
  • Dane wejściowe: tekst i obrazy
  • Dane wyjściowe: tekst
  • Może obsługiwać multimodalne dane wejściowe, tekst i obraz.
  • Może obsługiwać zadania typu zero, one i few-shot.
Obsługiwane metody generowania generateContent
Limit tokenów wejściowych 12288
Limit tokenów wyjściowych 4096
Bezpieczeństwo modelu Automatycznie stosowane ustawienia bezpieczeństwa, które deweloperzy mogą zmienić. Więcej informacji znajdziesz w temacie dotyczącym ustawień bezpieczeństwa.
Limit żądań 60 żądań na minutę [1]
Umieszczanie Ostatnia aktualizacja modelu Grudzień 2023 r.
Kod modelu models/embedding-001
Możliwości modelu
  • Dane wejściowe: tekst
  • Dane wyjściowe: tekst
  • Generuje wektory dystrybucyjne dla tekstu wejściowego.
  • Zoptymalizowany do tworzenia reprezentacji właściwościowych dla tekstu zawierającego maksymalnie 2048 tokenów.
Obsługiwane metody generowania embedContent
Bezpieczeństwo modelu Brak możliwości dostosowania ustawień bezpieczeństwa.
Limit żądań 1500 żądań na minutę [1]
Umieszczanie tekstu Ostatnia aktualizacja modelu Kwiecień 2024 r.
Kod modelu models/text-embedding-004 (text-embedding-preview-0409 w Vertex AI)
Możliwości modelu
  • Dane wejściowe: tekst
  • Dane wyjściowe: tekst
  • Generuje wektory dystrybucyjne dla tekstu wejściowego.
  • Obsługuje rozmiary elastycznych wektorów dystrybucyjnych poniżej 768.
Obsługiwane metody generowania embedContent
Bezpieczeństwo modelu Brak możliwości dostosowania ustawień bezpieczeństwa.
Limit żądań 1500 żądań na minutę [1]
reakcja akustyczna Ostatnia aktualizacja modelu Grudzień 2023 r.
Kod modelu models/aqa
Możliwości modelu
  • Dane wejściowe: tekst
  • Dane wyjściowe: tekst
  • Model, który potrafi odpowiadać na przypisane pytania.
  • Model wytrenowany tak, aby zwracał odpowiedzi na pytania oparte na podanych źródłach, wraz z szacowaniem prawdopodobieństwa możliwego do odpowiedzi.
Obsługiwane metody generowania generateAnswer
Obsługiwane języki angielski
Limit tokenów wejściowych 7168
Limit tokenów wyjściowych 1024
Bezpieczeństwo modelu Automatycznie stosowane ustawienia bezpieczeństwa, które deweloperzy mogą zmienić. Więcej informacji znajdziesz w temacie dotyczącym ustawień bezpieczeństwa.
Limit żądań 60 żądań na minutę [1]

Możliwości tych wariantów modelu znajdziesz na przykładach.

Metadane modelu

Za pomocą interfejsu API ModelService możesz uzyskać dodatkowe metadane dotyczące najnowszych modeli, takie jak limity tokenów danych wejściowych i wyjściowych. Tabela poniżej zawiera metadane wariantu modelu Gemini Pro.

Atrybut Wartość
Wyświetlana nazwa Gemini 1.0 Pro
Kod modelu models/gemini-1.0-pro
Opis Model docelowy na potrzeby generowania tekstu
Obsługiwane metody generowania generateContent
Temperatura 0,9
top_p 1
top_k 1

Atrybuty modelu

W tabeli poniżej opisujemy atrybuty modeli Gemini, które są wspólne dla wszystkich odmian.

Atrybut Opis
Dane treningowe Termin zbierania wiedzy dla Gemini to początek 2023 roku. Informacje o wydarzeniach po tym czasie są ograniczone.
Obsługiwane języki Zobacz dostępne języki
Konfigurowalne parametry modelu
  • Górne P
  • Górne K
  • Temperatura
  • Zatrzymaj sekwencję
  • Maksymalna długość wyjściowa
  • Liczba propozycji odpowiedzi

[1] Ze względu na ograniczenia pojemności podane limity maksymalnej stawki nie są gwarantowane.

Więcej informacji o każdym z tych parametrów znajdziesz w sekcji Parametry modelu we przewodniku Wprowadzenie do modeli LLM.

Dalsze kroki