REST Resource: models

Ressource: Modell

Informationen zu einem generativen Language Model.

JSON-Darstellung
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Felder
name

string

Erforderlich. Der Ressourcenname von Model.

Format: models/{model} mit einer {model}-Namenskonvention:

  • „{baseModelId}-{version}“

Beispiele:

  • models/chat-bison-001
baseModelId

string

Erforderlich. Der Name des Basismodells, übergeben Sie ihn an die Anfrage zur Generierung.

Beispiele:

  • chat-bison
version

string

Erforderlich. Die Versionsnummer des Modells.

Stellt die Hauptversion dar

displayName

string

Der visuell lesbare Name des Modells. Beispiel: „Chat Bison“.

Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen.

description

string

Eine kurze Beschreibung des Modells.

inputTokenLimit

integer

Für dieses Modell maximal zulässige Anzahl von Eingabetokens.

outputTokenLimit

integer

Maximale Anzahl der für dieses Modell verfügbaren Ausgabetokens.

supportedGenerationMethods[]

string

Die vom Modell unterstützten Generierungsmethoden.

Die Methodennamen werden als Pascal-Case-Strings definiert, z. B. generateMessage, die API-Methoden entsprechen.

temperature

number

Steuert die Zufälligkeit der Ausgabe.

Werte können über [0.0,1.0] (einschließlich) liegen. Ein Wert, der näher an 1.0 liegt, führt zu vielfältigeren Antworten, während ein Wert näher an 0.0 zu weniger überraschenden Antworten des Modells führt. Mit diesem Wert wird angegeben, dass er beim Aufruf des Modells standardmäßig vom Back-End verwendet wird.

topP

number

Für Nucleus-Proben.

Bei der Nucleus-Stichprobe werden die kleinsten Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt. Mit diesem Wert wird angegeben, dass er beim Aufruf des Modells standardmäßig vom Back-End verwendet wird.

topK

integer

Für Top-K-Stichproben.

Bei der Top-K-Stichprobe wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt. Mit diesem Wert wird angegeben, dass er beim Aufruf des Modells standardmäßig vom Back-End verwendet wird. Wenn das Feld leer ist, verwendet das Modell keine Top-K-Stichproben und topK ist nicht als Generierungsparameter zulässig.

Methoden

batchEmbedContents

Generiert in einem synchronen Aufruf aus dem Modell mehrere Einbettungen anhand des Eingabetexts.

batchEmbedText

Generiert in einem synchronen Aufruf aus dem Modell mehrere Einbettungen anhand des Eingabetexts.

countMessageTokens

Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück.

countTextTokens

Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück.

countTokens

Führt den Tokenizer eines Modells für den Eingabeinhalt aus und gibt die Tokenanzahl zurück.

embedContent

Generiert eine Einbettung aus dem Modell anhand einer Eingabe-Content.

embedText

Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht.

generateAnswer

Generiert eine fundierte Antwort aus dem Modell anhand einer Eingabe-GenerateAnswerRequest.

generateContent

Generiert eine Antwort vom Modell auf Basis einer GenerateContentRequest-Eingabe.

generateMessage

Generiert eine Antwort vom Modell auf Basis einer MessagePrompt-Eingabe.

generateText

Generiert eine Antwort vom Modell auf eine Eingabenachricht.

get

Ruft Informationen zu einem bestimmten Modell ab.

list

Listet Modelle auf, die über die API verfügbar sind.

streamGenerateContent

Erzeugt eine gestreamte Antwort aus dem Modell anhand einer Eingabe-GenerateContentRequest.