Method: models.generateMessage

Generiert eine Antwort aus dem Modell mit einer Eingabe-MessagePrompt.

HTTP-Anfrage

POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

Parameter
model

string

Erforderlich. Der Name des zu verwendenden Modells.

Format: name=models/{model}

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

JSON-Darstellung
{
  "prompt": {
    object (MessagePrompt)
  },
  "temperature": number,
  "candidateCount": integer,
  "topP": number,
  "topK": integer
}
Felder
prompt

object (MessagePrompt)

Erforderlich. Die strukturierte Texteingabe für das Modell als Prompt.

Bei einer Eingabeaufforderung gibt das Modell diejenige zurück, die es als nächste Nachricht in der Diskussion vorhersagt.

temperature

number

Optional. Steuert die Zufälligkeit der Ausgabe.

Die Werte können über [0.0,1.0] (einschließlich) liegen. Ein Wert, der näher bei 1.0 liegt, führt zu vielfältigeren Antworten, während ein Wert näher bei 0.0 zu weniger überraschenden Antworten des Modells führt.

candidateCount

integer

Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen [1, 8] (jeweils einschließlich) liegen. Wenn die Richtlinie nicht konfiguriert ist, wird standardmäßig 1 verwendet.

topP

number

Optional. Die maximale kumulative Wahrscheinlichkeit, dass Tokens bei der Stichprobe berücksichtigt werden.

Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert.

Bei der Nucleus Sampling-Methode wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt.

topK

integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobe berücksichtigt werden sollen.

Bei diesem Modell werden Top-K- und Nucleus-Stichproben kombiniert.

Bei der Top-K-Stichprobe wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt.

Antworttext

Die Antwort des Modells.

Dazu gehören mögliche Nachrichten und der Unterhaltungsverlauf in Form von Nachrichten in chronologischer Reihenfolge.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

JSON-Darstellung
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}
Felder
candidates[]

object (Message)

Mögliche Antwortnachrichten des Modells.

messages[]

object (Message)

Der vom Modell verwendete Unterhaltungsverlauf.

filters[]

object (ContentFilter)

Eine Reihe von Metadaten zur Inhaltsfilterung für den Prompt- und Antworttext.

Hier wird angegeben, welche SafetyCategory einen Kandidaten in dieser Antwort blockiert haben, den niedrigsten HarmProbability, der eine Blockierung ausgelöst hat, und die HarmThreshold-Einstellung für diese Kategorie.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/generative-language
  • https://www.googleapis.com/auth/generative-language.tuning
  • https://www.googleapis.com/auth/generative-language.tuning.readonly
  • https://www.googleapis.com/auth/generative-language.retriever
  • https://www.googleapis.com/auth/generative-language.retriever.readonly

Weitere Informationen finden Sie in der Authentifizierungsübersicht.