Punkt końcowy models umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstowego. Więcej informacji znajdziesz w Przewodniku po modelach.
Metoda: Modele.get
Pobiera informacje o konkretnym Model
, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku Gemini.
Punkt końcowy
pobierz https://generativelanguage.googleapis.com/v1beta/{name=models/*} .Parametry ścieżki
name
string
Wymagane. Nazwa zasobu modelu.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Pudrowy róż
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model
.
Metoda: Modele.list
- Punkt końcowy
- Parametry zapytania
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
Wyświetla Model
dostępne w interfejsie Gemini API.
Punkt końcowy
get https://generativelanguage.googleapis.com/v1beta/modelsParametry zapytania
pageSize
integer
Maksymalna liczba Models
do zwrócenia (na stronę).
Jeśli nie określono inaczej, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli przekażesz większy rozmiar strony.
pageToken
string
Token strony otrzymany z poprzedniego wywołania funkcji models.list
.
Podaj pageToken
zwrócony przez jedno żądanie jako argument następnego żądania, aby pobrać kolejną stronę.
Podczas podziału na strony wszystkie inne parametry przekazane do funkcji models.list
muszą być zgodne z wywołaniem, które dostarczyło token strony.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Pudrowy róż
Treść odpowiedzi
Odpowiedź z modelu ListModel
zawierająca podzieloną na strony listę modeli.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
models[]
object (Model
)
Zwrócone modele.
nextPageToken
string
token, który może być wysyłany jako pageToken
w celu pobrania następnej strony.
Jeśli pominiesz to pole, nie będzie kolejnych stron.
Zapis JSON |
---|
{
"models": [
{
object ( |
Zasób REST: models
Zasób: Model
Informacje o modelu generatywnego języka.
name
string
Wymagane. Nazwa zasobu Model
. Wszystkie dozwolone wartości znajdziesz w sekcji Odwzory modelu.
Format: models/{model}
z konwencją nazewnictwa {model}
:
- „{baseModelId}-{version}”
Przykłady:
models/gemini-1.5-flash-001
baseModelId
string
Wymagane. Nazwa modelu podstawowego. Przekaż ją do żądania wygenerowania.
Przykłady:
gemini-1.5-flash
version
string
Wymagane. Numer wersji modelu.
Odpowiada on wersji głównej (1.0
lub 1.5
)
displayName
string
Zrozumiała dla człowieka nazwa modelu. Przykład: „Gemini 1.5 Flash”.
Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.
description
string
Krótki opis modelu.
inputTokenLimit
integer
Maksymalna liczba tokenów wejściowych dozwolona dla tego modelu.
outputTokenLimit
integer
Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.
supportedGenerationMethods[]
string
Obsługiwane metody generowania modelu.
Odpowiednie nazwy metod interfejsu API są zdefiniowane za pomocą ciągów znaków Pascal, np. generateMessage
i generateContent
.
temperature
number
Określa losowość wyników.
Wartości mogą się mieścić w przedziale powyżej [0.0,maxTemperature]
. Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, natomiast wartość zbliżona do 0.0
spowoduje, że odpowiedzi będą mniej zaskakujące. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.
maxTemperature
number
Maksymalna temperatura, której może używać ten model.
topP
number
Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.
topK
integer
W przypadku próbkowania Top-K.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu. Jeśli pole jest puste, oznacza to, że model nie korzysta z próbkowania Top-K, a topK
nie jest dozwolony jako parametr generowania.
Zapis JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |