Methode: models.generateText
Generiert eine Antwort des Modells auf eine Eingabenachricht.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
>
>
Pfadparameter
model
string
Erforderlich. Der Name des Model
oder TunedModel
, der zum Generieren der Vervollständigung verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Das Format ist models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (TextPrompt
)
Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.
Das Modell generiert anhand eines Prompts eine TextCompletion-Antwort, die es als Vervollständigung des Eingabetexts vorhersagt.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
die auf der GenerateTextRequest.prompt
und der GenerateTextResponse.candidates
durchgesetzt werden. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ geben. Die API blockiert alle Prompts und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erfüllen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory
, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory
kein SafetySetting
in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.
stopSequences[]
string
Die Menge der Zeichenfolgen (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature
des Model
, das von der Funktion getModel
zurückgegeben wird.
Die Werte können zwischen 0,0 und 1,0 liegen. Ein Wert, der näher an 1,0 liegt, führt zu vielfältigeren und kreativeren Antworten, während ein Wert, der näher an 0,0 liegt, in der Regel zu direkteren Antworten des Modells führt.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen 1 und 8 (einschließlich) liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1 verwendet.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einem Kandidaten enthalten sein dürfen.
Wenn nicht festgelegt, wird standardmäßig „outputTokenLimit“ verwendet, das in der Model
-Spezifikation angegeben ist.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.
Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.
Tokens werden nach ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Beim Top-k-Sampling wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während beim Nucleus-Sampling die Anzahl der Tokens auf der Grundlage der kumulativen Wahrscheinlichkeit begrenzt wird.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_p
des Model
, das von der Funktion getModel
zurückgegeben wird.
topK
integer
Optional. Die maximale Anzahl von Tokens, die beim Sampling berücksichtigt werden sollen.
Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_k
des Model
, das von der Funktion getModel
zurückgegeben wird.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
Methode: models.countTextTokens
Führt den Tokenizer eines Modells für einen Text aus und gibt die Anzahl der Tokens zurück.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
>
>
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Es hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (TextPrompt
)
Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.
Antworttext
Eine Antwort von models.countTextTokens
.
Sie gibt die tokenCount
des Modells für die prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die model
prompt
tokenisiert.
Immer nicht negativ.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: models.generateMessage
Generiert eine Antwort des Modells auf Grundlage einer Eingabe MessagePrompt
.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
>
>
Pfadparameter
model
string
Erforderlich. Der Name des zu verwendenden Modells.
Format: name=models/{model}
. Sie hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (MessagePrompt
)
Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.
Wenn Sie einen Prompt eingeben, gibt das Modell die nächste Nachricht in der Diskussion zurück, die es vorhersagt.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis zu [0.0,1.0]
betragen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
candidateCount
integer
Optional. Die Anzahl der zurückzugebenden generierten Antwortnachrichten.
Dieser Wert muss zwischen [1, 8]
liegen. Wenn nicht festgelegt, wird standardmäßig 1
verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.
Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.
Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
topK
integer
Optional. Die maximale Anzahl von Tokens, die beim Sampling berücksichtigt werden sollen.
Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt.
Antworttext
Die Antwort des Modells.
Dazu gehören Kandidatennachrichten und der Unterhaltungsverlauf in Form von chronologisch geordneten Nachrichten.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
candidates[]
object (Message
)
Kandidatenantwortnachrichten vom Modell.
messages[]
object (Message
)
Der vom Modell verwendete Unterhaltungsverlauf.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten zur Inhaltsfilterung für den Prompt- und Antworttext.
Hier wird angegeben, welche SafetyCategory
einen Kandidaten in dieser Antwort blockiert haben, der niedrigste HarmProbability
, der eine Blockierung ausgelöst hat, und die Einstellung für „HarmThreshold“ für diese Kategorie.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
Methode: models.countMessageTokens
Führt den Tokenizer eines Modells für einen String aus und gibt die Anzahl der Tokens zurück.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
>
>
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Es hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (MessagePrompt
)
Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.
Antworttext
Eine Antwort von models.countMessageTokens
.
Sie gibt die tokenCount
des Modells für die prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die model
prompt
tokenisiert.
Immer nicht negativ.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: models.embedText
Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
>
>
Pfadparameter
model
string
Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll. Sie hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
text
string
Optional. Der Freitext, den das Modell in eine Einbettung umwandelt.
Methode: models.batchEmbedText
Generiert mehrere Einbettungen aus dem Modell, wenn Eingabetext in einem synchronen Aufruf angegeben wird.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
>
>
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Das Format ist models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
texts[]
string
Optional. Die Freitext-Eingabetexte, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Wenn Sie mehr als 100 Texte eingeben, wird ein Fehler ausgegeben.
requests[]
object (EmbedTextRequest
)
Optional. Einbetten von Anfragen für den Batch Es kann nur entweder texts
oder requests
festgelegt werden.
Antworttext
Die Antwort auf eine EmbedTextRequest.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
embeddings[]
object (Embedding
)
Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.
JSON-Darstellung |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Fordert eine Texteinbettung vom Modell an.
model
string
Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll.
text
string
Optional. Der Freitext, den das Modell in eine Einbettung umwandelt.
JSON-Darstellung |
---|
{ "model": string, "text": string } |
ContentFilter
Metadaten zur Inhaltsfilterung, die mit der Verarbeitung einer einzelnen Anfrage verknüpft sind.
ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund ist möglicherweise nicht angegeben.
reason
enum (BlockedReason
)
Der Grund, warum Inhalte während der Verarbeitung der Anfrage blockiert wurden.
message
string
Ein String, der das Filterverhalten genauer beschreibt.
JSON-Darstellung |
---|
{
"reason": enum ( |
BlockedReason
Eine Liste mit Gründen, warum Inhalte möglicherweise blockiert wurden.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Es wurde kein Grund für die Blockierung angegeben. |
SAFETY |
Inhalte wurden durch Sicherheitseinstellungen blockiert. |
OTHER |
Inhalte wurden blockiert, aber der Grund ist nicht kategorisiert. |
Einbettung
Eine Liste von Gleitkommazahlen, die das Embedding darstellen.
value[]
number
Die Einbettungswerte.
JSON-Darstellung |
---|
{ "value": [ number ] } |
Nachricht
Die Grundeinheit für strukturierten Text.
Ein Message
enthält ein author
und den content
des Message
.
Mit author
werden Nachrichten getaggt, wenn sie als Text in das Modell eingespeist werden.
content
string
Erforderlich. Der Textinhalt des strukturierten Message
.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitierinformationen für modellgenerierte content
in diesem Message
.
Wenn dieses Message
als Ausgabe des Modells generiert wurde, kann dieses Feld Attributionsinformationen für Text enthalten, der im content
enthalten ist. Dieses Feld wird nur für die Ausgabe verwendet.
JSON-Darstellung |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.
Ein MessagePrompt
enthält eine strukturierte Gruppe von Feldern, die Kontext für die Unterhaltung liefern, Beispiele für Paare aus Nutzereingabe- und Modellausgabemeldungen, die das Modell dazu anregen, auf unterschiedliche Weise zu reagieren, und den Unterhaltungsverlauf oder die Liste der Nachrichten, die die abwechselnden Züge der Unterhaltung zwischen dem Nutzer und dem Modell darstellen.
context
string
Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.
Wenn dieser context
nicht leer ist, wird er dem Modell zuerst vor dem examples
und messages
übergeben. Wenn Sie ein context
verwenden, müssen Sie es bei jeder Anfrage angeben, um die Kontinuität zu wahren.
Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell enthalten, um Kontext bereitzustellen und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifiziere die Stimmung einer Aussage als fröhlich, traurig oder neutral.“
Alles, was in diesem Feld enthalten ist, hat Vorrang vor dem Nachrichtenverlauf, wenn die Gesamtgröße der Eingabe das inputTokenLimit
des Modells überschreitet und die Eingabeanfrage gekürzt wird.
examples[]
object (Example
)
Optional. Beispiele dafür, was das Modell generieren soll.
Dazu gehören sowohl die Nutzereingabe als auch die Antwort, die das Modell nachahmen soll.
Diese examples
werden genauso behandelt wie Unterhaltungsnachrichten, haben aber Vorrang vor dem Verlauf in messages
: Wenn die Gesamtgröße der Eingabe das inputTokenLimit
des Modells überschreitet, wird die Eingabe gekürzt. Elemente werden vor dem examples
aus messages
entfernt.
messages[]
object (Message
)
Erforderlich. Ein chronologisch sortierter Snapshot des letzten Unterhaltungsverlaufs.
Die Autoren wechseln sich ab.
Wenn die Gesamtgröße der Eingabe das inputTokenLimit
des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages
entfernt.
Beispiel
Ein Eingabe-/Ausgabebeispiel, das verwendet wird, um das Modell zu instruieren.
Sie zeigen, wie das Modell reagieren oder seine Antwort formatieren soll.
input
object (Message
)
Erforderlich. Ein Beispiel für eine Eingabe Message
des Nutzers.
output
object (Message
)
Erforderlich. Ein Beispiel dafür, was das Modell bei der Eingabe ausgeben sollte.
GenerateTextResponse
Die Antwort des Modells, einschließlich der Kandidaten für die Vervollständigung.
candidates[]
object (TextCompletion
)
Kandidatenantworten des Modells.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten zur Inhaltsfilterung für den Prompt- und Antworttext.
Hier wird angegeben, welche SafetyCategory
einen Kandidaten in dieser Antwort blockiert haben, der niedrigste HarmProbability
, der eine Blockierung ausgelöst hat, und die Einstellung für „HarmThreshold“ für diese Kategorie. Dies gibt die kleinste Änderung an der SafetySettings
an, die erforderlich wäre, um mindestens eine Antwort zu entsperren.
Die Blockierung wird durch die SafetySettings
in der Anfrage (oder die Standard-SafetySettings
der API) konfiguriert.
safetyFeedback[]
object (SafetyFeedback
)
Gibt Sicherheitsfeedback zur Inhaltsfilterung zurück.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
TextCompletion
Ausgabetext, der von einem Modell zurückgegeben wird.
output
string
Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.
safetyRatings[]
object (SafetyRating
)
Bewertungen für die Sicherheit einer Antwort.
Pro Kategorie gibt es maximal eine Bewertung.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitierinformationen für modellgenerierte output
in diesem TextCompletion
.
Dieses Feld kann Attributionsinformationen für Text enthalten, der in output
enthalten ist.
JSON-Darstellung |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Sicherheitsfeedback für eine gesamte Anfrage.
Dieses Feld wird ausgefüllt, wenn Inhalte in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert werden. SafetyFeedback ist möglicherweise nicht für jede HarmCategory vorhanden. Jedes SafetyFeedback gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.
rating
object (SafetyRating
)
Sicherheitsbewertung anhand von Inhalten.
setting
object (SafetySetting
)
Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.
JSON-Darstellung |
---|
{ "rating": { object ( |