Models

Punkt końcowy models umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstowego. Więcej informacji znajdziesz w przewodniku Modele.

Metoda: models.get

Pobiera informacje o konkretnym Model, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku Gemini.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu modelu.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

import google.generativeai as genai

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: models.list

Wyświetla Model dostępne w interfejsie Gemini API.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/models

Parametry zapytania

pageSize integer

Maksymalna liczba Models do zwrócenia (na stronę).

Jeśli nie podasz tej wartości, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.

pageToken string

Token strony otrzymany z poprzedniego wywołania funkcji models.list.

Aby pobrać kolejną stronę, podaj jako argument kolejnego żądania pageToken zwrócony przez pierwsze żądanie.

Podczas podziału na strony wszystkie inne parametry przekazane do funkcji models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

import google.generativeai as genai

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Treść odpowiedzi

Odpowiedź z ListModel zawierająca ponumerowane strony z modelami.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

token, który może być wysyłany jako pageToken w celu pobrania następnej strony.

Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: models

Zasób: Model

Informacje o modelu generatywnego języka.

Pola
name string

Wymagane. Nazwa zasobu Model. Wszystkie dozwolone wartości znajdziesz w sekcji Odwzory modelu.

Format: models/{model} z konwencją nazewnictwa {model}:

  • „{baseModelId}-{version}”

Przykłady:

  • models/gemini-1.5-flash-001
baseModelId string

Wymagane. Nazwa modelu podstawowego, którą należy przekazać do żądania generowania.

Przykłady:

  • gemini-1.5-flash
version string

Wymagane. Numer wersji modelu.

Reprezentuje wersję główną (1.0 lub 1.5).

displayName string

Czytelna nazwa modelu. Przykład: „Gemini 1.5 Flash”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolonych w przypadku tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania modelu.

Odpowiednie nazwy metod interfejsu API są zdefiniowane jako ciągi znaków w notacji Pascala, np. generateMessagegenerateContent.

temperature number

Określa losowość danych wyjściowych.

Wartości mogą mieścić się w zakresie [0.0,maxTemperature] (obustronnie domkniętym). Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, natomiast wartość zbliżona do 0.0 zwykle spowoduje, że odpowiedzi modelu będą mniej zaskakujące. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.

maxTemperature number

Maksymalna temperatura, w jakiej może pracować ten model.

topP number

W przypadku próbkowania Nucleus.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.

topK integer

W przypadku próbkowania Top-K.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu. Jeśli jest pusty, oznacza, że model nie używa próbkowania top-k, a parametr topK nie jest dozwolony jako parametr generowania.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}