Models

Punkt końcowy models umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstowego. Więcej informacji znajdziesz w przewodniku Modele.

Metoda: models.get

Pobiera informacje o konkretnym Model, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku Gemini.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Adres URL używa składni transkodowania gRPC.

Parametry ścieżki

name string

Wymagany. Nazwa zasobu modelu.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

# With Gemini-2 we're launching a new SDK, see this doc for details.
# https://ai.google.dev/gemini-api/docs/migrate

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: models.list

Wyświetla Model dostępne w interfejsie Gemini API.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/models

Adres URL używa składni transkodowania gRPC.

Parametry zapytania

pageSize integer

Maksymalna liczba Models do zwrócenia (na stronę).

Jeśli nie podasz tej wartości, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.

pageToken string

Token strony otrzymany z poprzedniego wywołania funkcji models.list.

Aby pobrać kolejną stronę, podaj jako argument kolejnego żądania pageToken zwrócony przez pierwsze żądanie.

Podczas podziału na strony wszystkie inne parametry przekazywane do funkcji models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

# With Gemini-2 we're launching a new SDK, see this doc for details.
# https://ai.google.dev/gemini-api/docs/migrate

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Treść odpowiedzi

Odpowiedź z ListModel zawierająca ponumerowane strony z modelami.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

token, który może być wysyłany jako pageToken w celu pobrania następnej strony.

Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: models

Zasób: Model

Informacje o modelu generatywnego języka.

Pola
name string

Wymagany. Nazwa zasobu Model. Wszystkie dozwolone wartości znajdziesz w sekcji Odwzory modelu.

Format: models/{model} z konwencją nazewnictwa {model}:

  • „{baseModelId}-{version}”

Przykłady:

  • models/gemini-1.5-flash-001
baseModelId string

Wymagany. Nazwa modelu podstawowego, którą należy przekazać do żądania generowania.

Przykłady:

  • gemini-1.5-flash
version string

Wymagany. Numer wersji modelu.

Reprezentuje wersję główną (1.0 lub 1.5).

displayName string

Czytelna nazwa modelu. Przykład: „Gemini 1.5 Flash”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolonych w przypadku tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania modelu.

Odpowiednie nazwy metod interfejsu API są zdefiniowane jako ciągi znaków w wielkiej literze, np. generateMessagegenerateContent.

temperature number

Określa losowość danych wyjściowych.

Wartości mogą mieścić się w zakresie [0.0,maxTemperature] (obustronnie domkniętym). Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, natomiast wartość zbliżona do 0.0 zwykle spowoduje, że odpowiedzi będą mniej zaskakujące. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.

maxTemperature number

Maksymalna temperatura, w której może pracować ten model.

topP number

W przypadku próbkowania Nucleus.

Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.

topK integer

W przypadku próbkowania Top-K.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu. Jeśli jest pusty, oznacza, że model nie używa próbkowania top-k, a wartość topK nie jest dozwolona jako parametr generowania.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}