Generiert eine Antwort vom Modell auf eine Eingabenachricht.
HTTP-Anfrage
POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
Parameter | |
---|---|
model |
Erforderlich. Der Name des |
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
JSON-Darstellung |
---|
{ "prompt": { object ( |
Felder | |
---|---|
prompt |
Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird. Bei einer Eingabeaufforderung generiert das Modell eine TextCompletion-Antwort, die es als Vervollständigung des Eingabetexts vorhersagt. |
safetySettings[] |
Optional. Eine Liste eindeutiger die für |
stopSequences[] |
Die Gruppe von Zeichenfolgen (bis zu fünf), die die Ausgabegenerierung stoppen. Wenn angegeben, stoppt die API beim ersten Auftreten einer Stoppsequenz. Die Stoppsequenz wird nicht in die Antwort aufgenommen. |
temperature |
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Die Werte können von [0,0;1,0] (einschließlich) reichen. Ein Wert, der näher bei 1,0 liegt, führt zu vielfältigeren und kreativen Antworten, während ein Wert näher an 0,0 in der Regel zu einfacheren Antworten des Modells führt. |
candidateCount |
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen. Dieser Wert muss im Bereich von [1 bis 8] liegen. Wenn die Richtlinie nicht konfiguriert ist, wird standardmäßig „1“ verwendet. |
maxOutputTokens |
Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden können. Wenn kein Wert festgelegt ist, wird standardmäßig das in der |
topP |
Optional. Die maximale kumulative Wahrscheinlichkeit, dass Tokens bei der Stichprobe berücksichtigt werden. Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert. Tokens werden nach ihrer zugewiesenen Wahrscheinlichkeit sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei Nucleus Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt wird. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im |
topK |
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobe berücksichtigt werden sollen. Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert. Bei der Top-K-Stichprobe wird die Gruppe der Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im |
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
Autorisierungsbereiche
Erfordert einen der folgenden OAuth-Bereiche:
https://www.googleapis.com/auth/generative-language
https://www.googleapis.com/auth/generative-language.tuning
https://www.googleapis.com/auth/generative-language.tuning.readonly
https://www.googleapis.com/auth/generative-language.retriever
https://www.googleapis.com/auth/generative-language.retriever.readonly
Weitere Informationen finden Sie in der Authentifizierungsübersicht.