Models

Über den Endpunkt „models“ können Sie die verfügbaren Modelle programmgesteuert auflisten und erweiterte Metadaten wie unterstützte Funktionen und die Größe des Kontextfensters abrufen. Weitere Informationen finden Sie im Leitfaden zu Modellen.

Methode: models.get

Hiermit werden Informationen zu einer bestimmten Model abgerufen, z. B. die Versionsnummer, Tokenlimits, Parameter und andere Metadaten. Ausführliche Informationen zu den Modellen finden Sie im Leitfaden zu Gemini-Modellen.

Endpunkt

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Pfadparameter

name string

Erforderlich. Der Ressourcenname des Modells.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}.models/{model}

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

from google import genai

client = genai.Client()
model_info = client.models.get(model="gemini-2.0-flash")
print(model_info)
curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash?key=$GEMINI_API_KEY

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Model.

Methode: models.list

Liste der über die Gemini API verfügbaren Models.

Endpunkt

get https://generativelanguage.googleapis.com/v1beta/models

Abfrageparameter

pageSize integer

Die maximale Anzahl von Models, die zurückgegeben werden sollen (pro Seite).

Wenn nicht angegeben, werden 50 Modelle pro Seite zurückgegeben. Mit dieser Methode werden maximal 1.000 Modelle pro Seite zurückgegeben, auch wenn Sie eine größere pageSize übergeben.

pageToken string

Ein Seitentoken, das von einem vorherigen models.list-Aufruf empfangen wurde.

Geben Sie den von einer Anfrage zurückgegebenen Wert „pageToken“ als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.

Beim Paginieren müssen alle anderen für models.list bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

from google import genai

client = genai.Client()

print("List of models that support generateContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "generateContent":
            print(m.name)

print("List of models that support embedContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "embedContent":
            print(m.name)
curl https://generativelanguage.googleapis.com/v1beta/models?key=$GEMINI_API_KEY

Antworttext

Antwort von ListModel mit einer paginaten Liste von Modellen.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
models[] object (Model)

Die zurückgegebenen Modelle.

nextPageToken string

Ein Token, das als pageToken gesendet werden kann, um die nächste Seite abzurufen.

Wenn dieses Feld weggelassen wird, gibt es keine weiteren Seiten.

JSON-Darstellung
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

REST-Ressource: models

Ressource: Modell

Informationen zu einem generativen Sprachmodell.

Felder
name string

Erforderlich. Der Ressourcenname der Model. Eine Liste aller zulässigen Werte finden Sie unter Modellvarianten.

Format: models/{model} mit einer {model}-Benennungskonvention:

  • „{baseModelId}-{version}“

Beispiele:

  • models/gemini-1.5-flash-001
baseModelId string

Erforderlich. Der Name des Basismodells, der an die Generierungsanfrage übergeben wird.

Beispiele:

  • gemini-1.5-flash
version string

Erforderlich. Die Versionsnummer des Modells.

Dies ist die Hauptversion (1.0 oder 1.5).

displayName string

Der für Menschen lesbare Name des Modells. Beispiel: „Gemini 1.5 Flash“.

Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.

description string

Eine kurze Beschreibung des Modells.

inputTokenLimit integer

Die maximale Anzahl von Eingabetokens, die für dieses Modell zulässig sind.

outputTokenLimit integer

Maximale Anzahl von Ausgabetokens, die für dieses Modell verfügbar sind.

supportedGenerationMethods[] string

Die unterstützten Generierungsmethoden des Modells.

Die entsprechenden API-Methodennamen werden als Pascal-Case-Strings definiert, z. B. generateMessage und generateContent.

temperature number

Steuert die Zufälligkeit der Ausgabe.

Die Werte können bis einschließlich [0.0,maxTemperature] liegen. Ein höherer Wert führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0 liegt, in der Regel zu weniger überraschenden Antworten des Modells führt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll.

maxTemperature number

Die maximale Temperatur, die für dieses Modell verwendet werden kann.

topP number

Für Nucleus-Stichprobenerhebungen.

Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll.

topK integer

Für die Top-K-Stichprobenerhebung.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll. Wenn das Feld leer ist, wird im Modell keine Top-K-Stichprobenerhebung verwendet und topK ist als Generierungsparameter nicht zulässig.

JSON-Darstellung
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}