Punkt końcowy modeli umożliwia programowe wyświetlanie listy dostępnych modeli oraz pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstu. Więcej informacji znajdziesz w Przewodniku po modelach.
Metoda: Modele.get
Pobiera informacje o konkretnym Model
, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelu znajdziesz w przewodniku po modelach Gemini.
Punkt końcowy
pobierz
https://generativelanguage.googleapis.com/v1beta/{name=models/*}
Parametry ścieżki
name
string
Wymagane. Nazwa zasobu modelu.
Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list
.
Format: models/{model}
Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Pudrowy róż
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model
.
Metoda: Modele.list
- Punkt końcowy
- Parametry zapytania
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
Wyświetla listę Model
dostępnych w interfejsie Gemini API.
Punkt końcowy
pobierz
https://generativelanguage.googleapis.com/v1beta/models
Parametry zapytania
pageSize
integer
Maksymalna liczba elementów Models
do zwrócenia (na stronę).
Jeśli nie określono inaczej, na stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli przekażesz większy rozmiar strony.
pageToken
string
Token strony otrzymany z poprzedniego wywołania funkcji models.list
.
Podaj pageToken
zwrócony przez jedno żądanie jako argument następnego żądania, aby pobrać kolejną stronę.
Podczas dzielenia na strony wszystkie pozostałe parametry podane w narzędziu models.list
muszą być zgodne z wywołaniem, które dostarczyło token strony.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Pudrowy róż
Treść odpowiedzi
Odpowiedź z modelu ListModel
zawierająca podzieloną na strony listę modeli.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
models[]
object (Model
)
Zwrócone modele.
nextPageToken
string
Token, który może zostać wysłany jako pageToken
w celu pobrania następnej strony.
Jeśli pominiesz to pole, nie będzie więcej stron.
Zapis JSON |
---|
{
"models": [
{
object ( |
Zasób REST: modele
Zasób: Model
Informacje o generatywnym modelu językowym.
name
string
Wymagane. Nazwa zasobu komponentu Model
. Wszystkie dozwolone wartości znajdziesz w artykule Warianty modelu.
Format: models/{model}
z konwencją nazewnictwa typu {model}
:
- „{baseModelId}–{version}”
Przykłady:
models/gemini-1.5-flash-001
baseModelId
string
Wymagane. Nazwa modelu podstawowego. Przekaż ją do żądania wygenerowania.
Przykłady:
gemini-1.5-flash
version
string
Wymagane. Numer wersji modelu.
Odpowiada on wersji głównej (1.0
lub 1.5
)
displayName
string
Zrozumiała dla człowieka nazwa modelu. Na przykład: „Gemini 1.5 Flash”.
Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.
description
string
Krótki opis modelu.
inputTokenLimit
integer
Maksymalna liczba tokenów wejściowych dozwolona dla tego modelu.
outputTokenLimit
integer
Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.
supportedGenerationMethods[]
string
Obsługiwane metody generowania w tym modelu.
Odpowiednie nazwy metod interfejsu API są zdefiniowane za pomocą ciągów znaków Pascal, np. generateMessage
i generateContent
.
temperature
number
Określa losowość wyników.
Wartości mogą się mieścić w przedziale powyżej [0.0,maxTemperature]
. Im wyższa wartość, odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0
daje zwykle mniej zaskakujących odpowiedzi modelu. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.
maxTemperature
number
Maksymalna temperatura, której może używać ten model.
topP
number
Na potrzeby próbkowania Nucleus.
Próbkowanie nucleusa uwzględnia najmniejszy zestaw tokenów, którego suma prawdopodobieństwa wynosi co najmniej topP
. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu.
topK
integer
Próbkowanie Top-K.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Ta wartość określa, która domyślnie ma być używana przez backend przy wywoływaniu modelu. Jeśli pole jest puste, oznacza to, że model nie korzysta z próbkowania Top-K, a topK
nie jest dozwolony jako parametr generowania.
Zapis JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |