Models

Punkt końcowy modeli umożliwia programowe wyświetlanie listy dostępnych modeli oraz pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstu. Więcej informacji znajdziesz w Przewodniku po modelach.

Metoda: Modele.get

Pobiera informacje o konkretnym Model, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelu znajdziesz w przewodniku po modelach Gemini.

Punkt końcowy

pobierz https://generativelanguage.googleapis.com/v1beta/{name=models/*}
.

Parametry ścieżki

name string

Wymagane. Nazwa zasobu modelu.

Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list.

Format: models/{model} Przyjmuje postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: Modele.list

Wyświetla listę Model dostępnych w interfejsie Gemini API.

Punkt końcowy

pobierz https://generativelanguage.googleapis.com/v1beta/models
.

Parametry zapytania

pageSize integer

Maksymalna liczba elementów Models do zwrócenia (na stronę).

Jeśli nie określono inaczej, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli przekażesz większy rozmiar strony.

pageToken string

Token strony otrzymany z poprzedniego wywołania funkcji models.list.

Podaj pageToken zwrócony przez jedno żądanie jako argument następnego żądania, aby pobrać kolejną stronę.

Podczas dzielenia na strony wszystkie pozostałe parametry podane w narzędziu models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Treść odpowiedzi

Odpowiedź z modelu ListModel zawierająca podzieloną na strony listę modeli.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

.
Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

Token, który może zostać wysłany jako pageToken w celu pobrania następnej strony.

Jeśli pominiesz to pole, nie będzie więcej stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: modele

Zasób: Model

Informacje o generatywnym modelu językowym.

.
Pola
name string

Wymagane. Nazwa zasobu komponentu Model. Wszystkie dozwolone wartości znajdziesz w artykule Warianty modelu.

Format: models/{model} z konwencją nazewnictwa typu {model}:

  • „{baseModelId}–{version}”

Przykłady:

  • models/gemini-1.5-flash-001
baseModelId string

Wymagane. Nazwa modelu podstawowego. Przekaż ją do żądania wygenerowania.

Przykłady:

  • gemini-1.5-flash
version string

Wymagane. Numer wersji modelu.

Odpowiada on wersji głównej (1.0 lub 1.5)

displayName string

Zrozumiała dla człowieka nazwa modelu. Na przykład: „Gemini 1.5 Flash”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolona dla tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania w tym modelu.

Odpowiednie nazwy metod interfejsu API są zdefiniowane za pomocą ciągów znaków Pascal, np. generateMessage i generateContent.

temperature number

Określa losowość wyników.

Wartości mogą się mieścić w przedziale powyżej [0.0,maxTemperature]. Im wyższa wartość, odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0 daje zwykle mniej zaskakujących odpowiedzi modelu. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

maxTemperature number

Maksymalna temperatura, której może używać ten model.

topP number

Na potrzeby próbkowania Nucleus.

Próbkowanie nucleusa uwzględnia najmniejszy zestaw tokenów, którego suma prawdopodobieństwa wynosi co najmniej topP. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

topK integer

Próbkowanie Top-K.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu. Jeśli pole jest puste, oznacza to, że model nie korzysta z próbkowania Top-K, a topK nie jest dozwolony jako parametr generowania.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}