Method: models.generateText

Generiert eine Antwort vom Modell auf eine Eingabenachricht.

HTTP-Anfrage

POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

Parameter
model

string

Erforderlich. Der Name des Model oder TunedModel, der zum Generieren der Vervollständigung verwendet werden soll. Beispiele: models/text-bison-001tuneModels/sentence-translator-u3b7m

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

JSON-Darstellung
{
  "prompt": {
    object (TextPrompt)
  },
  "safetySettings": [
    {
      object (SafetySetting)
    }
  ],
  "stopSequences": [
    string
  ],
  "temperature": number,
  "candidateCount": integer,
  "maxOutputTokens": integer,
  "topP": number,
  "topK": integer
}
Felder
prompt

object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Bei einer Eingabeaufforderung generiert das Modell eine TextCompletion-Antwort, die es als Vervollständigung des Eingabetexts vorhersagt.

safetySettings[]

object (SafetySetting)

Optional. Eine Liste eindeutiger SafetySetting-Instanzen zum Blockieren unsicherer Inhalte.

die für GenerateTextRequest.prompt und GenerateTextResponse.candidates erzwungen wird. Für jeden SafetyCategory-Typ darf es nur eine Einstellung geben. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden SafetyCategory, der in den SafetySettings angegeben ist. Wenn für eine bestimmte SafetyCategory in der Liste kein SafetySetting vorhanden ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS werden im SMS-Dienst unterstützt.

stopSequences[]

string

Die Gruppe von Zeichenfolgen (bis zu fünf), die die Ausgabegenerierung stoppen. Wenn angegeben, stoppt die API beim ersten Auftreten einer Stoppsequenz. Die Stoppsequenz wird nicht in die Antwort aufgenommen.

temperature

number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Model.temperature-Attribut der Model. Die Funktion getModel wurde zurückgegeben.

Die Werte können von [0,0;1,0] (einschließlich) reichen. Ein Wert, der näher bei 1,0 liegt, führt zu vielfältigeren und kreativen Antworten, während ein Wert näher an 0,0 in der Regel zu einfacheren Antworten des Modells führt.

candidateCount

integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss im Bereich von [1 bis 8] liegen. Wenn die Richtlinie nicht konfiguriert ist, wird standardmäßig „1“ verwendet.

maxOutputTokens

integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden können.

Wenn kein Wert festgelegt ist, wird standardmäßig das in der Model-Spezifikation angegebene AusgabeTokenLimit verwendet.

topP

number

Optional. Die maximale kumulative Wahrscheinlichkeit, dass Tokens bei der Stichprobe berücksichtigt werden.

Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert.

Tokens werden nach ihrer zugewiesenen Wahrscheinlichkeit sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei Nucleus Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt wird.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Model.top_p-Attribut der Model. Die Funktion getModel wurde zurückgegeben.

topK

integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobe berücksichtigt werden sollen.

Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert.

Bei der Top-K-Stichprobe wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Model.top_k-Attribut der Model. Die Funktion getModel wurde zurückgegeben.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/generative-language
  • https://www.googleapis.com/auth/generative-language.tuning
  • https://www.googleapis.com/auth/generative-language.tuning.readonly
  • https://www.googleapis.com/auth/generative-language.retriever
  • https://www.googleapis.com/auth/generative-language.retriever.readonly

Weitere Informationen finden Sie in der Authentifizierungsübersicht.