Methode: model.generateText
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
- Autorisierungsbereiche
Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
.
Pfadparameter
model
string
Erforderlich. Der Name des Model
- oder TunedModel
-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.
Wenn Sie einen Prompt eingeben, generiert das Modell eine TextCompletion-Antwort, die als Vollständigkeit des Eingabetexts vorhergesagt wird.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste einzelner SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
die am GenerateTextRequest.prompt
und GenerateTextResponse.candidates
erzwungen wird. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ vorhanden sein. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.
stopSequences[]
string
Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz angehalten. Die Stoppsequenz wird nicht in die Antwort aufgenommen.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature
von Model
, das die getModel
-Funktion zurückgegeben hat.
Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Ein Wert näher an 1,0 führt zu Antworten, die vielfältiger und kreativer sind, während ein Wert näher an 0,0 in der Regel zu direkteren Antworten vom Modell führt.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen [1, 8] (einschließlich) liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.
Wenn kein Wert festgelegt ist, wird standardmäßig das in der Model
-Spezifikation angegebene „outputTokenLimit“ verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Tokens werden basierend auf ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p
von Model
, das die getModel
-Funktion zurückgegeben hat.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Beim Top-K-Sampling wird die Gruppe der topK
wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k
von Model
, das die getModel
-Funktion zurückgegeben hat.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
Methode: models.countTextTokens
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
.
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Das Format hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.
Antworttext
Eine Antwort von models.countTextTokens
.
Sie gibt den tokenCount
des Modells für prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die der model
die prompt
tokenisiert.
Immer positiv.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: model.generateMessage
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
Generiert eine Antwort aus dem Modell anhand einer MessagePrompt
-Eingabe.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
.
Pfadparameter
model
string
Erforderlich. Der Name des zu verwendenden Modells.
Format: name=models/{model}
. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">prompt
object (MessagePrompt
)
Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.
Wenn Sie einen Prompt eingeben, gibt das Modell das zurück, was es als nächste Nachricht in der Diskussion vorhergesagt hat.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Werte können über [0.0,1.0]
(einschließlich) liegen. Ein Wert, der näher bei 1.0
liegt, führt zu unterschiedlichen Antworten, während ein Wert, der näher bei 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
candidateCount
integer
Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen einschließlich [1, 8]
liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1
verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Bei der Nucleus-Stichprobe wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Beim Top-K-Sampling wird die Gruppe der topK
wahrscheinlichsten Tokens berücksichtigt.
Antworttext
Die Antwort des Modells.
Dazu gehören Kandidatennachrichten und der Unterhaltungsverlauf in Form von chronologisch geordneten Nachrichten.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
candidates[]
object (Message
)
Mögliche Antwortnachrichten aus dem Modell.
messages[]
object (Message
)
Der vom Modell verwendete Unterhaltungsverlauf.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.
Hier sehen Sie, welche SafetyCategory
(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability
, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
Methode: model.countMessageTokens
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
.
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Das Format hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">prompt
object (MessagePrompt
)
Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.
Antworttext
Eine Antwort von models.countMessageTokens
.
Sie gibt den tokenCount
des Modells für prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die der model
die prompt
tokenisiert.
Immer positiv.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: Models.embedText
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
Erzeugt anhand einer Eingabenachricht eine Einbettung aus dem Modell.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
.
Pfadparameter
model
string
Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">text
string
Optional. Der Eingabetext im freien Format, den das Modell in eine Einbettung umwandelt.
Antworttext
Die Antwort auf eine EmbedTextRequest.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
embedding
object (Embedding
)
Nur Ausgabe. Die aus dem Eingabetext generierte Einbettung.
JSON-Darstellung |
---|
{
"embedding": {
object ( |
Methode: models.batchEmbedText
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
- EmbedTextRequest
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
Generiert in einem synchronen Aufruf mehrere Einbettungen aus dem Modell anhand des eingegebenen Texts.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
.
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">texts[]
string
Optional. Die Freiform-Eingabetexte, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Darüber wird ein Fehler ausgegeben.
requests[]
object (EmbedTextRequest
)
Optional. Einbettungsanfragen für den Batch. Es kann nur entweder texts
oder requests
festgelegt werden.
Antworttext
Die Antwort auf eine EmbedTextRequest.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
embeddings[]
object (Embedding
)
Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.
JSON-Darstellung |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Anfrage zum Abrufen einer Texteinbettung aus dem Modell.
model
string
Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll.
text
string
Optional. Der Eingabetext im freien Format, den das Modell in eine Einbettung umwandelt.
JSON-Darstellung |
---|
{ "model": string, "text": string } |
Methode: tuneModels.generateText
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
- Autorisierungsbereiche
Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
.
Pfadparameter
model
string
Erforderlich. Der Name des Model
- oder TunedModel
-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.
Wenn Sie einen Prompt eingeben, generiert das Modell eine TextCompletion-Antwort, die als Vollständigkeit des Eingabetexts vorhergesagt wird.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste einzelner SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
die am GenerateTextRequest.prompt
und GenerateTextResponse.candidates
erzwungen wird. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ vorhanden sein. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.
stopSequences[]
string
Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz angehalten. Die Stoppsequenz wird nicht in die Antwort aufgenommen.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature
von Model
, das die getModel
-Funktion zurückgegeben hat.
Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Ein Wert näher an 1,0 führt zu Antworten, die vielfältiger und kreativer sind, während ein Wert näher an 0,0 in der Regel zu direkteren Antworten vom Modell führt.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen [1, 8] (einschließlich) liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.
Wenn kein Wert festgelegt ist, wird standardmäßig das in der Model
-Spezifikation angegebene „outputTokenLimit“ verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Tokens werden basierend auf ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p
von Model
, das die getModel
-Funktion zurückgegeben hat.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Beim Top-K-Sampling wird die Gruppe der topK
wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k
von Model
, das die getModel
-Funktion zurückgegeben hat.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
ContentFilter
Metadaten zum Filtern von Inhalten im Zusammenhang mit der Verarbeitung einer einzelnen Anfrage.
Der ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund kann nicht angegeben werden.
reason
enum (BlockedReason
)
Der Grund, warum Inhalte während der Verarbeitung des Antrags blockiert wurden.
message
string
Ein String, der das Filterverhalten ausführlicher beschreibt.
JSON-Darstellung |
---|
{
"reason": enum ( |
BlockedReason
Eine Liste mit möglichen Gründen für die Sperrung von Inhalten.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Es wurde kein Grund für die Blockierung angegeben. |
SAFETY |
Inhalt wurde durch Sicherheitseinstellungen blockiert. |
OTHER |
Der Inhalt wurde blockiert, aber der Grund ist nicht kategorisiert. |
Einbettung
Eine Liste von Gleitkommazahlen, die die Einbettung darstellen.
value[]
number
Die Einbettungswerte.
JSON-Darstellung |
---|
{ "value": [ number ] } |
Meldung
Die Basiseinheit des strukturierten Textes.
Eine Message
enthält eine author
und die content
des Message
.
author
wird zum Taggen von Nachrichten verwendet, wenn sie als Text in das Modell eingespeist werden.
author
string
Optional. Der Autor dieser Nachricht.
Dies dient als Schlüssel zum Tagging des Inhalts dieser Nachricht, wenn sie als Text in das Modell eingespeist wird.
Der Autor kann eine beliebige alphanumerische Zeichenfolge sein.
content
string
Erforderlich. Der Textinhalt des strukturierten Message
.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitatinformationen für modellgenerierte content
in dieser Message
.
Wenn diese Message
als Ausgabe des Modells generiert wurde, kann dieses Feld mit Attributionsinformationen für jeden Text im content
gefüllt werden. Dieses Feld wird nur für die Ausgabe verwendet.
JSON-Darstellung |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
- JSON-Darstellung
- Beispiel
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.
Ein MessagePrompt
enthält einen strukturierten Satz von Feldern, die Kontext für die Unterhaltung, Beispiele für Nachrichtenpaare aus Nutzereingabe und Modellausgabe, die das Modell zu unterschiedlichen Antworten vorbereiten, sowie den Unterhaltungsverlauf oder die Liste von Nachrichten, die die abwechselnden Abzweigungen der Unterhaltung zwischen Nutzer und Modell darstellen.
context
string
Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.
Wenn dieses Feld nicht leer ist, wird dieses context
zuerst an das Modell vor examples
und messages
übergeben. Wenn Sie ein context
verwenden, müssen Sie es bei jeder Anfrage angeben, um Kontinuität zu wahren.
Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell sein, um Kontext bereitzustellen und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifizieren Sie die Stimmung in einer bestimmten Aussage als glücklich, traurig oder neutral.“
Alle in diesem Feld enthaltenen Elemente haben Vorrang vor dem Nachrichtenverlauf, wenn die Eingabegröße insgesamt die inputTokenLimit
des Modells überschreitet und die Eingabeanfrage abgeschnitten wird.
examples[]
object (Example
)
Optional. Beispiele dafür, was das Modell generieren soll.
Dies umfasst sowohl Nutzereingaben als auch die Antwort, die das Modell emulieren soll.
Diese examples
werden genauso behandelt wie Unterhaltungsnachrichten, mit der Ausnahme, dass sie Vorrang vor dem Verlauf in messages
haben: Wenn die Gesamtgröße der Eingabe die inputTokenLimit
des Modells überschreitet, wird die Eingabe abgeschnitten. Elemente werden vor dem examples
aus „messages
“ gelöscht.
messages[]
object (Message
)
Erforderlich. Eine Momentaufnahme des aktuellen Unterhaltungsverlaufs, die chronologisch sortiert ist.
Die beiden Autoren wechseln abwechselnd.
Wenn die Gesamtgröße der Eingabe die inputTokenLimit
des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages
gelöscht.
Beispiel
Ein Eingabe-/Ausgabebeispiel für Anweisungen für das Modell.
Sie zeigt, wie das Modell seine Antwort reagieren oder formatieren soll.
input
object (Message
)
Erforderlich. Ein Beispiel für eine Eingabe-Message
vom Nutzer.
output
object (Message
)
Erforderlich. Ein Beispiel dafür, was das Modell anhand der Eingabe ausgeben soll.
GenerateTextResponse
- JSON-Darstellung
- TextCompletion
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- SafetyFeedback
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
Die Antwort vom Modell, einschließlich möglicher Vervollständigungen.
candidates[]
object (TextCompletion
)
Mögliche Antworten aus dem Modell.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.
Hier sehen Sie, welche SafetyCategory
(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability
, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie. Dies ist die kleinste Änderung an SafetySettings
, die erforderlich wäre, um die Blockierung von mindestens 1 Antwort aufzuheben.
Die Blockierung wird durch die SafetySettings
in der Anfrage (oder die Standard-SafetySettings
der API) konfiguriert.
safetyFeedback[]
object (SafetyFeedback
)
Gibt jegliches Sicherheitsfeedback in Bezug auf das Filtern von Inhalten zurück.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
TextCompletion
Ausgabetext, der von einem Modell zurückgegeben wurde.
output
string
Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.
safetyRatings[]
object (SafetyRating
)
Bewertungen für die Sicherheit einer Antwort.
Es gibt maximal eine Bewertung pro Kategorie.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitatinformationen für modellgenerierte output
in dieser TextCompletion
.
Dieses Feld kann für jeden Text im output
mit Attributionsinformationen gefüllt werden.
JSON-Darstellung |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Sicherheitsfeedback zu einer gesamten Anfrage.
Dieses Feld wird gefüllt, wenn der Inhalt in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert wird. SafetyFeedback ist möglicherweise nicht für jede HarmCategory vorhanden. Jedes „SafetyFeedback“ gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.
rating
object (SafetyRating
)
Die Sicherheitsbewertung wurde anhand der Inhalte bewertet.
setting
object (SafetySetting
)
Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.
JSON-Darstellung |
---|
{ "rating": { object ( |