PaLM (decommissioned)

Methode: models.generateText

Generiert eine Antwort des Modells auf eine Eingabenachricht.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Name der Model oder TunedModel, die zum Generieren des Abschlusses verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Es hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.

safetySettings[] object (SafetySetting)

Optional. Eine Liste eindeutiger SafetySetting-Instanzen zum Blockieren sicherer Inhalte.

die für den GenerateTextRequest.prompt und den GenerateTextResponse.candidates gelten. Pro SafetyCategory-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Prompts und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichensequenzen (bis zu 5), durch die die Ausgabe generiert wird, beendet wird. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature der Model-Funktion, die die getModel-Funktion zurückgibt.

Die Werte können zwischen 0,0 und 1,0 liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert näher an 0,0 führt in der Regel zu einfacheren Antworten des Modells.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen 1 und 8 liegen. Wenn dieser Wert nicht festgelegt ist, wird standardmäßig „1“ verwendet.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nukleus-Stichprobenerhebung.

Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei der Nucleus-Stichprobe die Anzahl der Tokens anhand der kumulativen Wahrscheinlichkeit begrenzt wird.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_p der Model-Funktion, die die getModel-Funktion zurückgibt.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-K- und Nukleus-Stichprobenerhebung.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_k der Model-Funktion, die die getModel zurückgibt.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

Methode: models.countTextTokens

Führt den Tokenisierer eines Modells auf einen Text aus und gibt die Tokenanzahl zurück.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Diese dient als ID für das Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Muss die Form models/{model} haben.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Antworttext

Eine Antwort von models.countTextTokens.

Sie gibt den tokenCount des Modells für den prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die model die prompt tokenisiert.

Muss immer positiv sein.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: models.generateMessage

Generiert eine Antwort des Modells auf Grundlage einer Eingabe MessagePrompt.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Name des zu verwendenden Modells.

Format: name=models/{model}. Es hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Die strukturierte Text-Eingabe, die dem Modell als Prompt gegeben wird.

Wenn ein Prompt gegeben wird, gibt das Modell die voraussichtlich nächste Nachricht in der Unterhaltung zurück.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe.

Die Werte können bis einschließlich [0.0,1.0] liegen. Ein Wert, der näher an 1.0 liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0 liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.

candidateCount integer

Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen [1, 8] liegen (einschließlich). Wenn dieser Wert nicht festgelegt ist, wird standardmäßig 1 verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nukleus-Stichprobenerhebung.

Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-K- und Nukleus-Stichprobenerhebung.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt.

Antworttext

Die Antwort des Modells.

Dazu gehören Nachrichtenvorschläge und der Unterhaltungsverlauf in Form von chronologisch sortierten Nachrichten.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
candidates[] object (Message)

Antwortvorschläge vom Modell.

messages[] object (Message)

Der vom Modell verwendete Unterhaltungsverlauf.

filters[] object (ContentFilter)

Eine Reihe von Metadaten für die Inhaltsfilterung für den Prompt- und Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, den niedrigsten HarmProbability, der eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie.

JSON-Darstellung
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Methode: models.countMessageTokens

Führt den Tokenisierer eines Modells auf einen String aus und gibt die Tokenanzahl zurück.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Diese dient als ID für das Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Muss die Form models/{model} haben.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.

Antworttext

Eine Antwort von models.countMessageTokens.

Sie gibt den tokenCount des Modells für den prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die model die prompt tokenisiert.

Muss immer positiv sein.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: models.embedText

Erzeugt aus dem Modell eine Einbettung für eine Eingabenachricht.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll. Es hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
text string

Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embedding object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierte Einbettung.

JSON-Darstellung
{
  "embedding": {
    object (Embedding)
  }
}

Methode: models.batchEmbedText

Generiert mehrere Einbettungen aus dem Modell, das dem Eingabetext in einem synchronen Aufruf übergeben wird.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Name des Model, der für die Generierung der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Der Pfad hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
texts[] string

Optional. Die Eingabetexte im Freiformat, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Wird es überschritten, wird ein Fehler ausgegeben.

requests[] object (EmbedTextRequest)

Optional. Anfragen für den Batch einbetten Es kann nur texts oder requests festgelegt werden.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embeddings[] object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.

JSON-Darstellung
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Text-Embedding vom Modell anfordern

Felder
model string

Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll.

text string

Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.

JSON-Darstellung
{
  "model": string,
  "text": string
}

Methode: tunedModels.generateText

Generiert eine Antwort des Modells auf eine Eingabenachricht.

Endpunkt

Beitrag https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Die URL verwendet die Syntax der gRPC-Transcodierung.

Pfadparameter

model string

Erforderlich. Der Name der Model oder TunedModel, die zum Generieren des Abschlusses verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Es hat das Format tunedModels/{tunedmodel}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.

Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.

safetySettings[] object (SafetySetting)

Optional. Eine Liste eindeutiger SafetySetting-Instanzen zum Blockieren sicherer Inhalte.

die für den GenerateTextRequest.prompt und den GenerateTextResponse.candidates gelten. Pro SafetyCategory-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Prompts und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichensequenzen (bis zu 5), durch die die Ausgabe generiert wird, beendet wird. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature der Model-Funktion, die die getModel-Funktion zurückgibt.

Die Werte können zwischen 0,0 und 1,0 liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert näher an 0,0 führt in der Regel zu einfacheren Antworten des Modells.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen 1 und 8 liegen. Wenn dieser Wert nicht festgelegt ist, wird standardmäßig „1“ verwendet.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nukleus-Stichprobenerhebung.

Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei der Nucleus-Stichprobe die Anzahl der Tokens anhand der kumulativen Wahrscheinlichkeit begrenzt wird.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_p der Model-Funktion, die die getModel-Funktion zurückgibt.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-K- und Nukleus-Stichprobenerhebung.

Bei der Top-K-Stichprobenerhebung werden die topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_k der Model-Funktion, die die getModel zurückgibt.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

ContentFilter

Metadaten zur Inhaltsfilterung, die mit der Verarbeitung einer einzelnen Anfrage verknüpft sind.

„ContentFilter“ enthält einen Grund und einen optionalen unterstützenden String. Der Grund kann nicht angegeben werden.

Felder
reason enum (BlockedReason)

Der Grund, warum Inhalte während der Anfrageverarbeitung blockiert wurden.

message string

Ein String, der das Filterverhalten genauer beschreibt.

JSON-Darstellung
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Eine Liste der Gründe, aus denen Inhalte möglicherweise blockiert wurden.

Enums
BLOCKED_REASON_UNSPECIFIED Es wurde kein Grund für die Blockierung angegeben.
SAFETY Inhalte wurden durch die Sicherheitseinstellungen blockiert.
OTHER Inhalte wurden blockiert, der Grund ist jedoch nicht kategorisiert.

Einbettung

Eine Liste von Gleitkommazahlen, die das Einbetten darstellen.

Felder
value[] number

Die Einbettungswerte.

JSON-Darstellung
{
  "value": [
    number
  ]
}

Nachricht senden

Die Basiseinheit für strukturierten Text.

Ein Message enthält einen author und die content des Message.

Mit dem author werden Nachrichten getaggt, wenn sie dem Modell als Text zugeführt werden.

Felder
author string

Optional. Der Autor dieser Nachricht.

Dieser dient als Schlüssel zum Tagging des Inhalts dieser Nachricht, wenn sie dem Modell als Text zugeführt wird.

Der Autor kann ein beliebiger alphanumerischer String sein.

content string

Erforderlich. Der Textinhalt der strukturierten Message.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Quellenangaben für die modellgegenerierte content in diesem Message.

Wenn dieses Message als Ausgabe des Modells generiert wurde, kann dieses Feld mit Attributionsinformationen für den im content enthaltenen Text ausgefüllt werden. Dieses Feld wird nur für die Ausgabe verwendet.

JSON-Darstellung
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Der gesamte strukturierte Eingabetext, der dem Modell als Prompt übergeben wird.

Ein MessagePrompt enthält eine strukturierte Reihe von Feldern, die Kontext für die Unterhaltung bieten, Beispiele für Nachrichtenpaare aus Nutzereingaben und Modellausgaben, die das Modell auf unterschiedliche Weise reagieren lassen, sowie den Unterhaltungsverlauf oder die Liste der Nachrichten, die die abwechselnden Gesprächsrunden zwischen Nutzer und Modell darstellen.

Felder
context string

Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.

Wenn context nicht leer ist, wird sie dem Modell vor examples und messages übergeben. Wenn Sie eine context verwenden, geben Sie sie bei jeder Anfrage an, um für Kontinuität zu sorgen.

Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell sein, um Kontext zu bieten und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifiziere die Stimmung einer Aussage als fröhlich, traurig oder neutral.“

Alles, was in diesem Feld enthalten ist, hat Vorrang vor dem Nachrichtenverlauf, wenn die Gesamteingabegröße den inputTokenLimit des Modells überschreitet und die Eingabeanfrage abgeschnitten wird.

examples[] object (Example)

Optional. Beispiele für das, was das Modell generieren soll.

Dazu gehören sowohl die Nutzereingaben als auch die Antwort, die das Modell emulieren soll.

Diese examples werden wie Konversationsnachrichten behandelt, mit der Ausnahme, dass sie Vorrang vor dem Verlauf in messages haben: Wenn die Gesamteingabegröße die inputTokenLimit des Modells überschreitet, wird die Eingabe abgeschnitten. Elemente werden vor dem examples aus messages entfernt.

messages[] object (Message)

Erforderlich. Ein Snapshot der letzten Unterhaltungen, sortiert nach Zeit.

Die Sprecher wechseln zwischen zwei Personen.

Wenn die Gesamtgröße der Eingabe die inputTokenLimit des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages entfernt.

JSON-Darstellung
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Beispiel

Ein Eingabe/Ausgabe-Beispiel, das zum Trainieren des Modells verwendet wird.

Sie zeigt, wie das Modell reagieren oder seine Antwort formatieren soll.

Felder
input object (Message)

Erforderlich. Ein Beispiel für eine Eingabe Message des Nutzers.

output object (Message)

Erforderlich. Ein Beispiel dafür, was das Modell bei der Eingabe ausgeben sollte.

JSON-Darstellung
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Die Antwort des Modells, einschließlich der möglichen Vervollständigungen.

Felder
candidates[] object (TextCompletion)

Potenzielle Antworten des Modells.

filters[] object (ContentFilter)

Eine Reihe von Metadaten für die Inhaltsfilterung für den Prompt- und Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, den niedrigsten HarmProbability, der eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie. Dies gibt die kleinste Änderung an der SafetySettings an, die erforderlich wäre, um mindestens eine Antwort zu entsperren.

Das Blockieren wird durch die SafetySettings in der Anfrage (oder die Standard-SafetySettings der API) konfiguriert.

safetyFeedback[] object (SafetyFeedback)

Gibt Sicherheitsfeedback zur Inhaltsfilterung zurück.

JSON-Darstellung
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Von einem Modell zurückgegebener Ausgabetext.

Felder
output string

Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.

safetyRatings[] object (SafetyRating)

Bewertungen der Sicherheit einer Antwort.

Pro Kategorie ist maximal eine Altersfreigabe zulässig.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Quellenangaben für die modellgegenerierte output in diesem TextCompletion.

Dieses Feld kann mit Informationen zur Quellenangabe für Text gefüllt werden, der in der output enthalten ist.

JSON-Darstellung
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Sicherheitsfeedback für eine gesamte Anfrage.

Dieses Feld wird ausgefüllt, wenn Inhalte in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert werden. „SafetyFeedback“ ist möglicherweise nicht für jede „HarmCategory“ vorhanden. Jedes SafetyFeedback gibt die Sicherheitseinstellungen zurück, die für die Anfrage verwendet wurden, sowie die niedrigste HarmProbability, die zulässig sein sollte, damit ein Ergebnis zurückgegeben wird.

Felder
rating object (SafetyRating)

Die Sicherheitsbewertung basiert auf den Inhalten.

setting object (SafetySetting)

Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.

JSON-Darstellung
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Text, der dem Modell als Prompt gegeben wird.

Das Modell verwendet diesen Textprompt, um eine Textvervollständigung zu generieren.

Felder
text string

Erforderlich. Der Prompttext.

JSON-Darstellung
{
  "text": string
}