PaLM (deprecated)

Methode: models.generateText

Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
.

Pfadparameter

model string

Erforderlich. Der Name von Model oder TunedModel, der zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
prompt object (TextPrompt)

Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.

Wenn Sie einen Prompt eingeben, generiert das Modell eine TextCompletion-Antwort, die als Vollständigkeit des Eingabetexts vorhergesagt wird.

safetySettings[] object (SafetySetting)

Optional. Eine Liste einzelner SafetySetting-Instanzen zum Blockieren unsicherer Inhalte.

die am GenerateTextRequest.prompt und GenerateTextResponse.candidates erzwungen wird. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory-Typ vorhanden sein. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz angehalten. Die Stoppsequenz wird nicht in die Antwort aufgenommen.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature von Model, das die getModel-Funktion zurückgegeben hat.

Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Ein Wert näher an 1,0 führt zu Antworten, die vielfältiger und kreativer sind, während ein Wert näher an 0,0 in der Regel zu direkteren Antworten vom Modell führt.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen [1, 8] (einschließlich) liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn kein Wert festgelegt ist, wird standardmäßig das in der Model-Spezifikation angegebene „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Tokens werden basierend auf ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p von Model, das die getModel-Funktion zurückgegeben hat.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Beim Top-K-Sampling wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k von Model, das die getModel-Funktion zurückgegeben hat.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

Methode: models.countTextTokens

Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
.

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
prompt object (TextPrompt)

Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.

Antworttext

Eine Antwort von models.countTextTokens.

Sie gibt den tokenCount des Modells für den prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die der model die prompt tokenisiert.

Immer positiv.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: model.generateMessage

Generiert eine Antwort aus dem Modell anhand einer MessagePrompt-Eingabe.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
.

Pfadparameter

model string

Erforderlich. Der Name des zu verwendenden Modells.

Format: name=models/{model}. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
prompt object (MessagePrompt)

Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.

Wenn Sie einen Prompt eingeben, gibt das Modell das zurück, was es als nächste Nachricht in der Diskussion vorhergesagt hat.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe.

Werte können über [0.0,1.0] (einschließlich) liegen. Ein Wert, der näher bei 1.0 liegt, führt zu unterschiedlichen Antworten, während ein Wert, der näher bei 0.0 liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.

candidateCount integer

Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen einschließlich [1, 8] liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1 verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Bei der Nucleus-Stichprobe wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Beim Top-K-Sampling wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt.

Antworttext

Die Antwort des Modells.

Dazu gehören Kandidatennachrichten und der Unterhaltungsverlauf in Form von chronologisch geordneten Nachrichten.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
candidates[] object (Message)

Mögliche Antwortnachrichten aus dem Modell.

messages[] object (Message)

Der vom Modell verwendete Unterhaltungsverlauf.

filters[] object (ContentFilter)

Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie.

JSON-Darstellung
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Methode: model.countMessageTokens

Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
.

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
prompt object (MessagePrompt)

Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.

Antworttext

Eine Antwort von models.countMessageTokens.

Sie gibt den tokenCount des Modells für prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die der model die prompt tokenisiert.

Immer positiv.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: Models.embedText

Erzeugt anhand einer Eingabenachricht eine Einbettung aus dem Modell.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
.

Pfadparameter

model string

Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
text string

Optional. Der Eingabetext im freien Format, den das Modell in eine Einbettung umwandelt.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embedding object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierte Einbettung.

JSON-Darstellung
{
  "embedding": {
    object (Embedding)
  }
}

Methode: models.batchEmbedText

Generiert in einem synchronen Aufruf mehrere Einbettungen aus dem Modell anhand des Eingabetexts.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
.

Pfadparameter

model string

Erforderlich. Der Name des Model, der zum Generieren der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Sie hat das Format models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
texts[] string

Optional. Die Freiform-Eingabetexte, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Darüber wird ein Fehler ausgegeben.

requests[] object (EmbedTextRequest)

Optional. Einbettungsanfragen für den Batch. Es kann nur entweder texts oder requests festgelegt werden.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embeddings[] object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.

JSON-Darstellung
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Anfrage zum Abrufen einer Texteinbettung aus dem Modell.

JSON-Darstellung
{
  "model": string,
  "text": string
}
Felder
model string

Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll.

text string

Optional. Der Eingabetext im freien Format, den das Modell in eine Einbettung umwandelt.

Methode: tuneModels.generateText

Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.

Endpunkt

<ph type="x-smartling-placeholder"></ph> Beitrag https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
.

Pfadparameter

model string

Erforderlich. Der Name von Model oder TunedModel, der zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format tunedModels/{tunedmodel}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

<ph type="x-smartling-placeholder">
</ph> Felder
prompt object (TextPrompt)

Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.

Wenn Sie einen Prompt eingeben, generiert das Modell eine TextCompletion-Antwort, die als Vollständigkeit des Eingabetexts vorhergesagt wird.

safetySettings[] object (SafetySetting)

Optional. Eine Liste einzelner SafetySetting-Instanzen zum Blockieren unsicherer Inhalte.

die am GenerateTextRequest.prompt und GenerateTextResponse.candidates erzwungen wird. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory-Typ vorhanden sein. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory. Wenn für eine bestimmte SafetyCategory in der Liste keine SafetySetting angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz angehalten. Die Stoppsequenz wird nicht in die Antwort aufgenommen.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature von Model, das die getModel-Funktion zurückgegeben hat.

Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Ein Wert näher an 1,0 führt zu Antworten, die vielfältiger und kreativer sind, während ein Wert näher an 0,0 in der Regel zu direkteren Antworten vom Modell führt.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen [1, 8] (einschließlich) liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.

Wenn kein Wert festgelegt ist, wird standardmäßig das in der Model-Spezifikation angegebene „outputTokenLimit“ verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Tokens werden basierend auf ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p von Model, das die getModel-Funktion zurückgegeben hat.

topK integer

Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.

Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.

Beim Top-K-Sampling wird die Gruppe der topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k von Model, das die getModel-Funktion zurückgegeben hat.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

ContentFilter

Metadaten zum Filtern von Inhalten im Zusammenhang mit der Verarbeitung einer einzelnen Anfrage.

Der ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund kann nicht angegeben werden.

JSON-Darstellung
{
  "reason": enum (BlockedReason),
  "message": string
}
Felder
reason enum (BlockedReason)

Der Grund, warum Inhalte während der Verarbeitung des Antrags blockiert wurden.

message string

Ein String, der das Filterverhalten ausführlicher beschreibt.

BlockedReason

Eine Liste mit möglichen Gründen für die Sperrung von Inhalten.

Enums
BLOCKED_REASON_UNSPECIFIED Es wurde kein Grund für die Blockierung angegeben.
SAFETY Inhalt wurde durch Sicherheitseinstellungen blockiert.
OTHER Der Inhalt wurde blockiert, aber der Grund ist nicht kategorisiert.

Einbettung

Eine Liste von Gleitkommazahlen, die die Einbettung darstellen.

JSON-Darstellung
{
  "value": [
    number
  ]
}
Felder
value[] number

Die Einbettungswerte.

Meldung

Die Basiseinheit des strukturierten Textes.

Eine Message enthält eine author und die content des Message.

author wird zum Taggen von Nachrichten verwendet, wenn sie als Text in das Modell eingespeist werden.

JSON-Darstellung
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Felder
author string

Optional. Der Autor dieser Nachricht.

Dies dient als Schlüssel zum Tagging des Inhalts dieser Nachricht, wenn sie als Text in das Modell eingespeist wird.

Der Autor kann eine beliebige alphanumerische Zeichenfolge sein.

content string

Erforderlich. Der Textinhalt des strukturierten Message.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Zitatinformationen für modellgenerierte content in dieser Message.

Wenn diese Message als Ausgabe des Modells generiert wurde, kann dieses Feld mit Attributionsinformationen für jeden Text im content gefüllt werden. Dieses Feld wird nur für die Ausgabe verwendet.

MessagePrompt

Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.

Ein MessagePrompt enthält einen strukturierten Satz von Feldern, die Kontext für die Unterhaltung, Beispiele für Nachrichtenpaare aus Nutzereingabe und Modellausgabe, die das Modell zu unterschiedlichen Antworten vorbereiten, sowie den Unterhaltungsverlauf oder die Liste von Nachrichten, die die abwechselnden Abzweigungen der Unterhaltung zwischen Nutzer und Modell darstellen.

JSON-Darstellung
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Felder
context string

Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.

Wenn dieses Feld nicht leer ist, wird dieses context zuerst an das Modell vor examples und messages übergeben. Wenn Sie ein context verwenden, müssen Sie es bei jeder Anfrage angeben, um Kontinuität zu wahren.

Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell sein, um Kontext bereitzustellen und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifizieren Sie die Stimmung in einer bestimmten Aussage als glücklich, traurig oder neutral.“

Alle in diesem Feld enthaltenen Elemente haben Vorrang vor dem Nachrichtenverlauf, wenn die Eingabegröße insgesamt die inputTokenLimit des Modells überschreitet und die Eingabeanfrage abgeschnitten wird.

examples[] object (Example)

Optional. Beispiele dafür, was das Modell generieren soll.

Dies umfasst sowohl Nutzereingaben als auch die Antwort, die das Modell emulieren soll.

Diese examples werden genauso behandelt wie Unterhaltungsnachrichten, mit der Ausnahme, dass sie Vorrang vor dem Verlauf in messages haben: Wenn die Gesamtgröße der Eingabe die inputTokenLimit des Modells überschreitet, wird die Eingabe abgeschnitten. Elemente werden vor dem examples aus „messages“ gelöscht.

messages[] object (Message)

Erforderlich. Eine Momentaufnahme des aktuellen Unterhaltungsverlaufs, die chronologisch sortiert ist.

Die beiden Autoren wechseln abwechselnd.

Wenn die gesamte Eingabegröße die inputTokenLimit des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages gelöscht.

Beispiel

Ein Eingabe-/Ausgabebeispiel für Anweisungen für das Modell.

Sie zeigt, wie das Modell seine Antwort reagieren oder formatieren soll.

JSON-Darstellung
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Felder
input object (Message)

Erforderlich. Ein Beispiel für eine Eingabe-Message vom Nutzer.

output object (Message)

Erforderlich. Ein Beispiel dafür, was das Modell anhand der Eingabe ausgeben soll.

GenerateTextResponse

Die Antwort vom Modell, einschließlich möglicher Vervollständigungen.

JSON-Darstellung
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Felder
candidates[] object (TextCompletion)

Mögliche Antworten aus dem Modell.

filters[] object (ContentFilter)

Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.

Hier sehen Sie, welche SafetyCategory(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie. Dies ist die kleinste Änderung an SafetySettings, die erforderlich wäre, um die Blockierung von mindestens 1 Antwort aufzuheben.

Die Blockierung wird durch die SafetySettings in der Anfrage (oder die Standard-SafetySettings der API) konfiguriert.

safetyFeedback[] object (SafetyFeedback)

Gibt jegliches Sicherheitsfeedback in Bezug auf das Filtern von Inhalten zurück.

TextCompletion

Ausgabetext, der von einem Modell zurückgegeben wurde.

JSON-Darstellung
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Felder
output string

Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.

safetyRatings[] object (SafetyRating)

Bewertungen für die Sicherheit einer Antwort.

Es gibt maximal eine Bewertung pro Kategorie.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Zitatinformationen für modellgenerierte output in dieser TextCompletion.

Dieses Feld kann für jeden Text im output mit Attributionsinformationen gefüllt werden.

SafetyFeedback

Sicherheitsfeedback zu einer gesamten Anfrage.

Dieses Feld wird gefüllt, wenn der Inhalt in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert wird. SafetyFeedback ist möglicherweise nicht für jede HarmCategory vorhanden. Jedes „SafetyFeedback“ gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.

JSON-Darstellung
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Felder
rating object (SafetyRating)

Die Sicherheitsbewertung wurde anhand des Inhalts bewertet.

setting object (SafetySetting)

Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.

TextPrompt

Text, der dem Modell als Prompt gesendet wird.

Das Modell verwendet diesen TextPrompt, um eine Textvervollständigung zu generieren.

JSON-Darstellung
{
  "text": string
}
Felder
text string

Erforderlich. Der Prompt-Text.