Mit dem Modellendpunkt können Sie die verfügbaren Modelle programmatisch auflisten und erweiterte Metadaten wie unterstützte Funktionen und die Größe des Kontextfensters abrufen. Weitere Informationen finden Sie im Modellleitfaden.
Methode: models.get
- Endpunkt
- Pfadparameter
- Anfragetext
- Antworttext
- Autorisierungsbereiche
- Beispielanfrage
<ph type="x-smartling-placeholder">
- </ph>
- Abrufen
Ruft Informationen zu einer bestimmten Model
ab, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten. Ausführliche Informationen zu den Modellen finden Sie im Leitfaden zu Gemini-Modellen.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> erhalten
https://generativelanguage.googleapis.com/v1beta/{name=models/*}
.
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Das Format hat das Format models/{model}
.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Muschel
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Model
.
Methode: models.list
- Endpunkt
- Anfrageparameter
- Anfragetext
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
- Beispielanfrage
<ph type="x-smartling-placeholder">
- </ph>
- Liste
Listet die Model
s auf, die über die Gemini API verfügbar sind.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> erhalten
https://generativelanguage.googleapis.com/v1beta/models
.
Abfrageparameter
pageSize
integer
Die maximale Anzahl von Models
, die pro Seite zurückgegeben werden sollen.
Wenn nicht angegeben, werden 50 Modelle pro Seite zurückgegeben. Diese Methode gibt maximal 1.000 Modelle pro Seite zurück, selbst wenn Sie eine größere „pageSize“ übergeben.
pageToken
string
Ein Seitentoken, das von einem vorherigen models.list
-Aufruf empfangen wurde.
Geben Sie die von einer Anfrage zurückgegebene pageToken
als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.
Beim Paginieren müssen alle anderen für models.list
bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Muschel
Antworttext
Antwort von ListModel
, die eine paginierte Liste von Modellen enthält.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
models[]
object (Model
)
Die zurückgegebenen Modelle.
nextPageToken
string
Ein Token, das als pageToken
gesendet werden kann, um die nächste Seite abzurufen.
Wenn dieses Feld weggelassen wird, sind keine Seiten mehr vorhanden.
JSON-Darstellung |
---|
{
"models": [
{
object ( |
REST-Ressource: model
- Ressource: Modell
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Methoden
Ressource: Modell
Informationen zu einem generativen Sprachmodell.
name
string
Erforderlich. Der Ressourcenname des Model
. Weitere Informationen zu allen zulässigen Werten finden Sie unter Modellvarianten.
Format: models/{model}
mit folgender Namenskonvention für {model}
:
- „{baseModelId}-{version}“
Beispiele:
models/gemini-1.5-flash-001
baseModelId
string
Erforderlich. Der Name des Basismodells. Übergeben Sie diesen an die Generierungsanfrage.
Beispiele:
gemini-1.5-flash
version
string
Erforderlich. Die Versionsnummer des Modells.
Steht für die Hauptversion (1.0
oder 1.5
)
displayName
string
Der menschenlesbare Name des Modells. Beispiel: „Gemini 1.5 Flash“.
Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.
description
string
Eine kurze Beschreibung des Modells.
inputTokenLimit
integer
Maximal zulässige Anzahl von Eingabetokens für dieses Modell.
outputTokenLimit
integer
Maximale Anzahl der für dieses Modell verfügbaren Ausgabetokens.
supportedGenerationMethods[]
string
Die vom Modell unterstützten Generierungsmethoden.
Die entsprechenden API-Methodennamen werden als Strings für die Pascal-Schreibweise definiert, z. B. generateMessage
und generateContent
.
temperature
number
Steuert die Zufälligkeit der Ausgabe.
Werte können über [0.0,maxTemperature]
(einschließlich) liegen. Ein höherer Wert führt zu unterschiedlichen Antworten, während ein Wert näher an 0.0
zu weniger überraschenden Antworten des Modells führt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll.
maxTemperature
number
Die maximale Temperatur, die dieses Modell verwenden kann.
topP
number
Für Nucleus-Stichproben.
Bei der Nucleus-Stichprobe wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll.
topK
integer
Für Top-K-Sampling.
Beim Top-K-Sampling wird die Gruppe der topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll. Wenn leer, verwendet das Modell kein Top-K-Sampling und topK
ist nicht als Generierungsparameter zulässig.
JSON-Darstellung |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |