Models

Methode: models.get

Ruft Informationen zu einem bestimmten Modell ab.

Endpunkt

<ph type="x-smartling-placeholder"></ph> erhalten https://generativelanguage.googleapis.com/v1beta/{name=models/*}
.

Pfadparameter

name string

Erforderlich. Der Ressourcenname des Modells.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Muschel

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-pro?key=$GOOGLE_API_KEY

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Model.

Methode: models.list

Listet Modelle auf, die über die API verfügbar sind.

Endpunkt

<ph type="x-smartling-placeholder"></ph> erhalten https://generativelanguage.googleapis.com/v1beta/models
.

Abfrageparameter

pageSize integer

Die maximale Anzahl von Models, die pro Seite zurückgegeben werden sollen.

Der Dienst gibt möglicherweise weniger Modelle zurück. Wenn nicht angegeben, werden maximal 50 Modelle pro Seite zurückgegeben. Diese Methode gibt maximal 1.000 Modelle pro Seite zurück, selbst wenn Sie eine größere „pageSize“ übergeben.

pageToken string

Ein Seitentoken, das von einem vorherigen models.list-Aufruf empfangen wurde.

Geben Sie die von einer Anfrage zurückgegebene pageToken als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.

Beim Paginieren müssen alle anderen für models.list bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.

Anfragetext

Der Anfragetext muss leer sein.

Beispielanfrage

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Muschel

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Antworttext

Antwort von ListModel, die eine paginierte Liste von Modellen enthält.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
models[] object (Model)

Die zurückgegebenen Modelle.

nextPageToken string

Ein Token, das als pageToken gesendet werden kann, um die nächste Seite abzurufen.

Wenn dieses Feld weggelassen wird, sind keine Seiten mehr vorhanden.

JSON-Darstellung
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

REST-Ressource: model

Ressource: Modell

Informationen zu einem generativen Sprachmodell.

JSON-Darstellung
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}
Felder
name string

Erforderlich. Der Ressourcenname des Model.

Format: models/{model} mit folgender Namenskonvention für {model}:

  • &quot;{baseModelId}-{version}&quot;

Beispiele:

  • models/chat-bison-001
baseModelId string

Erforderlich. Der Name des Basismodells. Übergeben Sie diesen an die Generierungsanfrage.

Beispiele:

  • chat-bison
version string

Erforderlich. Die Versionsnummer des Modells.

Dies steht für die Hauptversion

displayName string

Der menschenlesbare Name des Modells. Beispiel: „Chat Bison“.

Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.

description string

Eine kurze Beschreibung des Modells.

inputTokenLimit integer

Maximal zulässige Anzahl von Eingabetokens für dieses Modell.

outputTokenLimit integer

Maximale Anzahl der für dieses Modell verfügbaren Ausgabetokens.

supportedGenerationMethods[] string

Die vom Modell unterstützten Generierungsmethoden.

Die Methodennamen werden als Strings für die Pascal-Schreibweise definiert, z. B. generateMessage, die API-Methoden entsprechen.

temperature number

Steuert die Zufälligkeit der Ausgabe.

Die Werte können über [0.0,maxTemperature] (einschließlich) liegen. Ein höherer Wert führt zu unterschiedlichen Antworten, während ein Wert näher an 0.0 zu weniger überraschenden Antworten des Modells führt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll.

maxTemperature number

Die maximale Temperatur, die dieses Modell verwenden kann.

topP number

Für Nucleus-Stichproben.

Bei der Nucleus-Stichprobe wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll.

topK integer

Für Top-K-Sampling.

Beim Top-K-Sampling wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt die Standardeinstellung an, die vom Back-End beim Aufruf des Modells verwendet werden soll. Wenn leer, verwendet das Modell kein Top-K-Sampling und topK ist nicht als Generierungsparameter zulässig.