Punkt końcowy models umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstowego. Więcej informacji znajdziesz w przewodniku Modele.
Metoda: models.get
Pobiera informacje o konkretnym Model
, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku Gemini.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
name
string
Wymagany. Nazwa zasobu modelu.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Muszla
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model
.
Metoda: models.list
- Punkt końcowy
- Parametry zapytania
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
Wyświetla Model
dostępne w interfejsie Gemini API.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /models
Adres URL używa składni transkodowania gRPC.
Parametry zapytania
pageSize
integer
Maksymalna liczba Models
do zwrócenia (na stronę).
Jeśli nie podasz tej wartości, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.
pageToken
string
Token strony otrzymany z poprzedniego wywołania funkcji models.list
.
Aby pobrać kolejną stronę, podaj jako argument kolejnego żądania pageToken
zwrócony przez pierwsze żądanie.
Podczas podziału na strony wszystkie inne parametry przekazywane do funkcji models.list
muszą być zgodne z wywołaniem, które dostarczyło token strony.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Muszla
Treść odpowiedzi
Odpowiedź z ListModel
zawierająca ponumerowane strony z modelami.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
models[]
object (Model
)
Zwrócone modele.
nextPageToken
string
token, który może być wysyłany jako pageToken
w celu pobrania następnej strony.
Jeśli pominiesz to pole, nie będzie kolejnych stron.
Zapis JSON |
---|
{
"models": [
{
object ( |
Zasób REST: models
Zasób: Model
Informacje o modelu generatywnego języka.
name
string
Wymagany. Nazwa zasobu Model
. Wszystkie dozwolone wartości znajdziesz w sekcji Odwzory modelu.
Format: models/{model}
z konwencją nazewnictwa {model}
:
- „{baseModelId}-{version}”
Przykłady:
models/gemini-1.5-flash-001
baseModelId
string
Wymagany. Nazwa modelu podstawowego, którą należy przekazać do żądania generowania.
Przykłady:
gemini-1.5-flash
version
string
Wymagany. Numer wersji modelu.
Reprezentuje wersję główną (1.0
lub 1.5
).
displayName
string
Czytelna nazwa modelu. Przykład: „Gemini 1.5 Flash”.
Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.
description
string
Krótki opis modelu.
inputTokenLimit
integer
Maksymalna liczba tokenów wejściowych dozwolonych w przypadku tego modelu.
outputTokenLimit
integer
Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.
supportedGenerationMethods[]
string
Obsługiwane metody generowania modelu.
Odpowiednie nazwy metod interfejsu API są zdefiniowane jako ciągi znaków w wielkiej literze, np. generateMessage
i generateContent
.
temperature
number
Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,maxTemperature]
(obustronnie domkniętym). Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, natomiast wartość zbliżona do 0.0
zwykle spowoduje, że odpowiedzi będą mniej zaskakujące. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.
maxTemperature
number
Maksymalna temperatura, w której może pracować ten model.
topP
number
W przypadku próbkowania Nucleus.
Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.
topK
integer
W przypadku próbkowania Top-K.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu. Jeśli jest pusty, oznacza, że model nie używa próbkowania top-k, a wartość topK
nie jest dozwolona jako parametr generowania.
Zapis JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |