Models

Metoda: Modele.get

Pobiera informacje o konkretnym modelu.

Punkt końcowy

pobierz https://generativelanguage.googleapis.com/v1beta/{name=models/*}
.

Parametry ścieżki

name string

Wymagane. Nazwa zasobu modelu.

Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list.

Format: models/{model} Przyjmuje postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-pro?key=$GOOGLE_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: Modele.list

Wyświetla listę modeli dostępnych za pomocą interfejsu API.

Punkt końcowy

pobierz https://generativelanguage.googleapis.com/v1beta/models
.

Parametry zapytania

pageSize integer

Maksymalna liczba elementów Models do zwrócenia (na stronę).

Usługa może zwrócić mniej modeli. Jeśli nie określono inaczej, na stronie zostanie zwróconych maksymalnie 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli przekażesz większy rozmiar strony.

pageToken string

Token strony otrzymany z poprzedniego wywołania funkcji models.list.

Podaj pageToken zwrócony przez jedno żądanie jako argument następnego żądania, aby pobrać kolejną stronę.

Podczas dzielenia na strony wszystkie pozostałe parametry podane w narzędziu models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Pudrowy róż

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Treść odpowiedzi

Odpowiedź z modelu ListModel zawierająca podzieloną na strony listę modeli.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

Token, który może zostać wysłany jako pageToken w celu pobrania następnej strony.

Jeśli pominiesz to pole, nie będzie więcej stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: modele

Zasób: Model

Informacje o generatywnym modelu językowym.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}
Pola
name string

Wymagane. Nazwa zasobu komponentu Model.

Format: models/{model} z konwencją nazewnictwa typu {model}:

  • "{baseModelId}-{version}"

Przykłady:

  • models/chat-bison-001
baseModelId string

Wymagane. Nazwa modelu podstawowego. Przekaż ją do żądania wygenerowania.

Przykłady:

  • chat-bison
version string

Wymagane. Numer wersji modelu.

Jest to wersja dur

displayName string

Zrozumiała dla człowieka nazwa modelu. Na przykład: „Czatuj z Bisonami”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolona dla tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania w tym modelu.

Nazwy metod są zdefiniowane jako ciągi znaków Pascal, np. generateMessage, które odpowiadają metodom interfejsu API.

temperature number

Określa losowość wyników.

Wartości mogą się mieścić w przedziale powyżej [0.0,maxTemperature]. Im wyższa wartość, odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0 daje zwykle mniej zaskakujących odpowiedzi modelu. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

maxTemperature number

Maksymalna temperatura, której może używać ten model.

topP number

Do próbkowania Nucleus.

Próbkowanie nucleusa uwzględnia najmniejszy zestaw tokenów, którego suma prawdopodobieństwa wynosi co najmniej topP. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.

topK integer

Próbkowanie Top-K.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu. Jeśli pole jest puste, oznacza to, że model nie korzysta z próbkowania Top-K, a topK nie jest dozwolony jako parametr generowania.