PaLM (decommissioned)

Methode: models.generateText

Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Pfadparameter

model string

Erforderlich. Der Name des Model- oder TunedModel-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.

safetySettings[] object (SafetySetting)

Optional. Eine Liste mit eindeutigen SafetySetting-Instanzen zum Blockieren sicherer Inhalte.

die für den GenerateTextRequest.prompt und den GenerateTextResponse.candidates gelten. Pro SafetyCategory-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien für schädliche Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature von Model, das die getModel-Funktion zurückgegeben hat.

Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert, der näher an 0,0 liegt, führt in der Regel zu einfacheren Antworten des Modells.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen 1 und 8 liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p von Model, das die getModel-Funktion zurückgegeben hat.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k von Model, das die getModel-Funktion zurückgegeben hat.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

Methode: models.countTextTokens

Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Muss die Form models/{model} haben.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Antworttext

Eine Antwort von models.countTextTokens.

Sie gibt den tokenCount des Modells für den prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die der model die prompt tokenisiert.

Muss immer positiv sein.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: model.generateMessage

Generiert eine Antwort aus dem Modell anhand einer MessagePrompt-Eingabe.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Pfadparameter

model string

Erforderlich. Der Name des zu verwendenden Modells.

Format: name=models/{model}. Es hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.

Wenn ein Prompt gegeben wird, gibt das Modell die voraussichtlich nächste Nachricht in der Unterhaltung zurück.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe.

Die Werte können bis einschließlich [0.0,1.0] liegen. Ein Wert, der näher an 1.0 liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0 liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.

candidateCount integer

Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen einschließlich [1, 8] liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1 verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt.

Antworttext

Die Antwort des Modells.

Dazu gehören Nachrichtenvorschläge und der Unterhaltungsverlauf in Form von chronologisch sortierten Nachrichten.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
candidates[] object (Message)

Mögliche Antwortnachrichten aus dem Modell.

messages[] object (Message)

Der vom Modell verwendete Unterhaltungsverlauf.

filters[] object (ContentFilter)

Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie.

JSON-Darstellung
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Methode: models.countMessageTokens

Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Muss die Form models/{model} haben.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.

Antworttext

Eine Antwort von models.countMessageTokens.

Sie gibt den tokenCount des Modells für den prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die der model die prompt tokenisiert.

Muss immer positiv sein.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: models.embedText

Erzeugt anhand einer Eingabenachricht eine Einbettung aus dem Modell.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Pfadparameter

model string

Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
text string

Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embedding object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierte Einbettung.

JSON-Darstellung
{
  "embedding": {
    object (Embedding)
  }
}

Methode: models.batchEmbedText

Generiert mehrere Einbettungen aus dem Modell, das dem Eingabetext in einem synchronen Aufruf übergeben wird.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Pfadparameter

model string

Erforderlich. Der Name des Model, der für die Generierung der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
texts[] string

Optional. Die Eingabetexte im Freiformat, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Wird es überschritten, wird ein Fehler ausgegeben.

requests[] object (EmbedTextRequest)

Optional. Anfragen für den Batch einbetten Es kann nur texts oder requests festgelegt werden.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embeddings[] object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.

JSON-Darstellung
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Anfrage zum Abrufen einer Texteinbettung aus dem Modell.

Felder
model string

Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll.

text string

Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.

JSON-Darstellung
{
  "model": string,
  "text": string
}

Methode: tunedModels.generateText

Generiert eine Antwort des Modells auf eine Eingabenachricht.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Pfadparameter

model string

Erforderlich. Der Name des Model- oder TunedModel-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Es hat das Format tunedModels/{tunedmodel}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.

safetySettings[] object (SafetySetting)

Optional. Eine Liste mit eindeutigen SafetySetting-Instanzen zum Blockieren sicherer Inhalte.

die für den GenerateTextRequest.prompt und den GenerateTextResponse.candidates gelten. Pro SafetyCategory-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien für schädliche Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature von Model, das die getModel-Funktion zurückgegeben hat.

Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert, der näher an 0,0 liegt, führt in der Regel zu einfacheren Antworten des Modells.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen 1 und 8 liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p von Model, das die getModel-Funktion zurückgegeben hat.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k von Model, das die getModel-Funktion zurückgegeben hat.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

ContentFilter

Metadaten zur Inhaltsfilterung, die mit der Verarbeitung einer einzelnen Anfrage verknüpft sind.

Der ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund kann nicht angegeben werden.

Felder
reason enum (BlockedReason)

Der Grund, warum Inhalte während der Verarbeitung des Antrags blockiert wurden.

message string

Ein String, der das Filterverhalten genauer beschreibt.

JSON-Darstellung
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Eine Liste der Gründe, aus denen Inhalte möglicherweise blockiert wurden.

Enums
BLOCKED_REASON_UNSPECIFIED Es wurde kein Grund für die Blockierung angegeben.
SAFETY Inhalte wurden durch die Sicherheitseinstellungen blockiert.
OTHER Der Inhalt wurde blockiert, aber der Grund ist nicht kategorisiert.

Einbettung

Eine Liste von Gleitkommazahlen, die die Einbettung darstellen.

Felder
value[] number

Die Einbettungswerte.

JSON-Darstellung
{
  "value": [
    number
  ]
}

Meldung

Die Basiseinheit für strukturierten Text.

Eine Message enthält eine author und die content des Message.

Mit dem author werden Nachrichten getaggt, wenn sie als Text in das Modell eingespeist werden.

Felder
author string

Optional. Der Autor dieser Nachricht.

Dieser dient als Schlüssel zum Tagging des Inhalts dieser Nachricht, wenn sie dem Modell als Text zugeführt wird.

Der Autor kann ein beliebiger alphanumerischer String sein.

content string

Erforderlich. Der Textinhalt der strukturierten Message.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Zitatinformationen für modellgenerierte content in dieser Message.

Wenn diese Message als Ausgabe des Modells generiert wurde, kann dieses Feld mit Attributionsinformationen für jeden Text im content gefüllt werden. Dieses Feld wird nur für die Ausgabe verwendet.

JSON-Darstellung
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.

Ein MessagePrompt enthält eine strukturierte Reihe von Feldern, die Kontext für die Unterhaltung bieten, Beispiele für Nachrichtenpaare aus Nutzereingaben und Modellausgaben, die das Modell auf unterschiedliche Weise reagieren lassen, sowie den Unterhaltungsverlauf oder die Liste der Nachrichten, die die abwechselnden Gesprächsrunden zwischen Nutzer und Modell darstellen.

Felder
context string

Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.

Wenn dieses Feld nicht leer ist, wird dieses context zuerst an das Modell vor examples und messages übergeben. Wenn Sie eine context verwenden, geben Sie sie bei jeder Anfrage an, um für Kontinuität zu sorgen.

Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell sein, um Kontext zu bieten und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifizieren Sie die Stimmung in einer bestimmten Aussage als glücklich, traurig oder neutral.“

Alle in diesem Feld enthaltenen Elemente haben Vorrang vor dem Nachrichtenverlauf, wenn die Eingabegröße insgesamt die inputTokenLimit des Modells überschreitet und die Eingabeanfrage abgeschnitten wird.

examples[] object (Example)

Optional. Beispiele für das, was das Modell generieren soll.

Dies umfasst sowohl Nutzereingaben als auch die Antwort, die das Modell emulieren soll.

Diese examples werden genauso behandelt wie Unterhaltungsnachrichten, mit der Ausnahme, dass sie Vorrang vor dem Verlauf in messages haben: Wenn die Gesamtgröße der Eingabe die inputTokenLimit des Modells überschreitet, wird die Eingabe abgeschnitten. Elemente werden vor dem examples aus „messages“ gelöscht.

messages[] object (Message)

Erforderlich. Eine Momentaufnahme des aktuellen Unterhaltungsverlaufs, die chronologisch sortiert ist.

Die Sprecher wechseln zwischen zwei Personen.

Wenn die Gesamtgröße der Eingabe die inputTokenLimit des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages entfernt.

JSON-Darstellung
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Beispiel

Ein Eingabe-/Ausgabebeispiel für Anweisungen für das Modell.

Sie zeigt, wie das Modell seine Antwort reagieren oder formatieren soll.

Felder
input object (Message)

Erforderlich. Ein Beispiel für eine Eingabe Message des Nutzers.

output object (Message)

Erforderlich. Ein Beispiel dafür, was das Modell bei der Eingabe ausgeben sollte.

JSON-Darstellung
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Die Antwort des Modells, einschließlich der möglichen Vervollständigungen.

Felder
candidates[] object (TextCompletion)

Mögliche Antworten aus dem Modell.

filters[] object (ContentFilter)

Eine Reihe von Metadaten für die Inhaltsfilterung für den Prompt- und Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie. Dies ist die kleinste Änderung an SafetySettings, die erforderlich wäre, um die Blockierung von mindestens 1 Antwort aufzuheben.

Das Blockieren wird durch die SafetySettings in der Anfrage (oder die StandardSafetySettings der API) konfiguriert.

safetyFeedback[] object (SafetyFeedback)

Gibt jegliches Sicherheitsfeedback in Bezug auf das Filtern von Inhalten zurück.

JSON-Darstellung
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Ausgabetext, der von einem Modell zurückgegeben wurde.

Felder
output string

Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.

safetyRatings[] object (SafetyRating)

Bewertungen der Sicherheit einer Antwort.

Es gibt maximal eine Bewertung pro Kategorie.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Quellenangaben für die modellgegenerierte output in diesem TextCompletion.

Dieses Feld kann mit Informationen zur Quellenangabe für Text aus der output ausgefüllt werden.

JSON-Darstellung
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Sicherheitsfeedback zu einer gesamten Anfrage.

Dieses Feld wird gefüllt, wenn der Inhalt in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert wird. „SafetyFeedback“ ist möglicherweise nicht für jede „HarmCategory“ vorhanden. Jedes „SafetyFeedback“ gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.

Felder
rating object (SafetyRating)

Die Sicherheitsbewertung wurde anhand der Inhalte bewertet.

setting object (SafetySetting)

Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.

JSON-Darstellung
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Text, der dem Modell als Prompt gegeben wird.

Das Modell verwendet diesen Textprompt, um eine Textvervollständigung zu generieren.

Felder
text string

Erforderlich. Der Prompt-Text.

JSON-Darstellung
{
  "text": string
}