Models

Punkt końcowy models umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstowego. Więcej informacji znajdziesz w Przewodniku po modelach.

Metoda: Modele.get

Pobiera informacje o konkretnym Model, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku Gemini.

Punkt końcowy

pobierz https://generativelanguage.googleapis.com/v1beta/{name=models/*} .

Parametry ścieżki

name string

Wymagane. Nazwa zasobu modelu.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: Modele.list

Wyświetla Model dostępne w interfejsie Gemini API.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/models

Parametry zapytania

pageSize integer

Maksymalna liczba Models do zwrócenia (na stronę).

Jeśli nie określono inaczej, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli przekażesz większy rozmiar strony.

pageToken string

Token strony otrzymany z poprzedniego wywołania funkcji models.list.

Podaj pageToken zwrócony przez jedno żądanie jako argument następnego żądania, aby pobrać kolejną stronę.

Podczas podziału na strony wszystkie inne parametry przekazane do funkcji models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Treść odpowiedzi

Odpowiedź z modelu ListModel zawierająca podzieloną na strony listę modeli.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

token, który może być wysyłany jako pageToken w celu pobrania następnej strony.

Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: models

Zasób: Model

Informacje o modelu generatywnego języka.

Pola
name string

Wymagane. Nazwa zasobu Model. Wszystkie dozwolone wartości znajdziesz w sekcji Odwzory modelu.

Format: models/{model} z konwencją nazewnictwa {model}:

  • „{baseModelId}-{version}”

Przykłady:

  • models/gemini-1.5-flash-001
baseModelId string

Wymagane. Nazwa modelu podstawowego. Przekaż ją do żądania wygenerowania.

Przykłady:

  • gemini-1.5-flash
version string

Wymagane. Numer wersji modelu.

Odpowiada on wersji głównej (1.0 lub 1.5)

displayName string

Zrozumiała dla człowieka nazwa modelu. Przykład: „Gemini 1.5 Flash”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolona dla tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania modelu.

Odpowiednie nazwy metod interfejsu API są zdefiniowane za pomocą ciągów znaków Pascal, np. generateMessage i generateContent.

temperature number

Określa losowość wyników.

Wartości mogą się mieścić w przedziale powyżej [0.0,maxTemperature]. Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, natomiast wartość zbliżona do 0.0 spowoduje, że odpowiedzi będą mniej zaskakujące. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

maxTemperature number

Maksymalna temperatura, której może używać ten model.

topP number

Próbkowanie Nucleus.

Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

topK integer

W przypadku próbkowania Top-K.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu. Jeśli pole jest puste, oznacza to, że model nie korzysta z próbkowania Top-K, a topK nie jest dozwolony jako parametr generowania.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}