Ressource: Modell
Informationen zu einem generativen Language Model.
JSON-Darstellung |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "topP": number, "topK": integer } |
Felder | |
---|---|
name |
Erforderlich. Der Ressourcenname von Format:
Beispiele:
|
baseModelId |
Erforderlich. Der Name des Basismodells, übergeben Sie ihn an die Anfrage zur Generierung. Beispiele:
|
version |
Erforderlich. Die Versionsnummer des Modells. Stellt die Hauptversion dar |
displayName |
Der visuell lesbare Name des Modells. Beispiel: „Chat Bison“. Der Name kann bis zu 128 Zeichen lang sein und aus beliebigen UTF-8-Zeichen bestehen. |
description |
Eine kurze Beschreibung des Modells. |
inputTokenLimit |
Für dieses Modell maximal zulässige Anzahl von Eingabetokens. |
outputTokenLimit |
Maximale Anzahl der für dieses Modell verfügbaren Ausgabetokens. |
supportedGenerationMethods[] |
Die vom Modell unterstützten Generierungsmethoden. Die Methodennamen werden als Pascal-Case-Strings definiert, z. B. |
temperature |
Steuert die Zufälligkeit der Ausgabe. Werte können über |
topP |
Für Nucleus-Proben. Bei der Nucleus-Stichprobe werden die kleinsten Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens |
topK |
Für Top-K-Stichproben. Bei der Top-K-Stichprobe wird die Gruppe der |
Methoden |
|
---|---|
|
Generiert in einem synchronen Aufruf aus dem Modell mehrere Einbettungen anhand des Eingabetexts. |
|
Generiert in einem synchronen Aufruf aus dem Modell mehrere Einbettungen anhand des Eingabetexts. |
|
Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück. |
|
Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück. |
|
Führt den Tokenizer eines Modells für den Eingabeinhalt aus und gibt die Tokenanzahl zurück. |
|
Generiert eine Einbettung aus dem Modell anhand einer Eingabe-Content . |
|
Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht. |
|
Generiert eine fundierte Antwort aus dem Modell anhand einer Eingabe-GenerateAnswerRequest . |
|
Generiert eine Antwort vom Modell auf Basis einer GenerateContentRequest -Eingabe. |
|
Generiert eine Antwort vom Modell auf Basis einer MessagePrompt -Eingabe. |
|
Generiert eine Antwort vom Modell auf eine Eingabenachricht. |
|
Ruft Informationen zu einem bestimmten Modell ab. |
|
Listet Modelle auf, die über die API verfügbar sind. |
|
Erzeugt eine gestreamte Antwort aus dem Modell anhand einer Eingabe-GenerateContentRequest . |