Methode: models.generateText
Generiert eine Antwort aus dem Modell anhand einer Eingabenachricht.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextPfadparameter
model
string
Erforderlich. Der Name des Model
- oder TunedModel
-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: „models/text-bison-001tuneModels/sentence-translator-u3b7m“ hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (TextPrompt
)
Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.
Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
die für den GenerateTextRequest.prompt
und den GenerateTextResponse.candidates
gelten. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien für schädliche Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.
stopSequences[]
string
Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature
von Model
, das die getModel
-Funktion zurückgegeben hat.
Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert, der näher an 0,0 liegt, führt in der Regel zu einfacheren Antworten des Modells.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen 1 und 8 liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.
Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model
-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p
von Model
, das die getModel
-Funktion zurückgegeben hat.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k
von Model
, das die getModel
-Funktion zurückgegeben hat.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
Methode: models.countTextTokens
Führt den Tokenizer eines Modells für einen Text aus und gibt die Tokenanzahl zurück.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensPfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Muss die Form models/{model}
haben.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (TextPrompt
)
Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.
Antworttext
Eine Antwort von models.countTextTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die der model
die prompt
tokenisiert.
Muss immer positiv sein.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: model.generateMessage
Generiert eine Antwort aus dem Modell anhand einer MessagePrompt
-Eingabe.
Endpunkt
Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessagePfadparameter
model
string
Erforderlich. Der Name des zu verwendenden Modells.
Format: name=models/{model}
. Es hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (MessagePrompt
)
Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.
Wenn ein Prompt gegeben wird, gibt das Modell die voraussichtlich nächste Nachricht in der Unterhaltung zurück.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis einschließlich [0.0,1.0]
liegen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
candidateCount
integer
Optional. Die Anzahl der generierten Antwortnachrichten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen einschließlich [1, 8]
liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1
verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt.
Antworttext
Die Antwort des Modells.
Dazu gehören Nachrichtenvorschläge und der Unterhaltungsverlauf in Form von chronologisch sortierten Nachrichten.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
candidates[]
object (Message
)
Mögliche Antwortnachrichten aus dem Modell.
messages[]
object (Message
)
Der vom Modell verwendete Unterhaltungsverlauf.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten zum Filtern von Inhalten für den Prompt und den Antworttext.
Hier sehen Sie, welche SafetyCategory
(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability
, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
Methode: models.countMessageTokens
Führt den Tokenizer eines Modells für einen String aus und gibt die Tokenanzahl zurück.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensPfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Muss die Form models/{model}
haben.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (MessagePrompt
)
Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.
Antworttext
Eine Antwort von models.countMessageTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tokenCount
integer
Die Anzahl der Tokens, in die der model
die prompt
tokenisiert.
Muss immer positiv sein.
JSON-Darstellung |
---|
{ "tokenCount": integer } |
Methode: models.embedText
Erzeugt anhand einer Eingabenachricht eine Einbettung aus dem Modell.
Endpunkt
Beitrag https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextPfadparameter
model
string
Erforderlich. Der Modellname, der im Format „model=models/{model}“ verwendet werden soll. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
text
string
Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.
Methode: models.batchEmbedText
Generiert mehrere Einbettungen aus dem Modell, das dem Eingabetext in einem synchronen Aufruf übergeben wird.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextPfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
texts[]
string
Optional. Die Eingabetexte im Freiformat, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Wird es überschritten, wird ein Fehler ausgegeben.
requests[]
object (EmbedTextRequest
)
Optional. Anfragen für den Batch einbetten Es kann nur texts
oder requests
festgelegt werden.
Antworttext
Die Antwort auf eine EmbedTextRequest.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
embeddings[]
object (Embedding
)
Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.
JSON-Darstellung |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Anfrage zum Abrufen einer Texteinbettung aus dem Modell.
model
string
Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll.
text
string
Optional. Der Eingabetext im Freiformat, den das Modell in eine Einbettung umwandelt.
JSON-Darstellung |
---|
{ "model": string, "text": string } |
Methode: tunedModels.generateText
Generiert eine Antwort des Modells auf eine Eingabenachricht.
Endpunkt
Beitrag https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextPfadparameter
model
string
Erforderlich. Der Name des Model
- oder TunedModel
-Elements, das zum Generieren der Vervollständigung verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Es hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
prompt
object (TextPrompt
)
Erforderlich. Der Eingabetext im freien Format, der dem Modell als Prompt gegeben wird.
Anhand eines Prompts generiert das Modell eine TextCompletion-Antwort, die es als Abschluss des Eingabetexts vorhersagt.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
die für den GenerateTextRequest.prompt
und den GenerateTextResponse.candidates
gelten. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Aufforderungen und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien für schädliche Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.
stopSequences[]
string
Die Zeichenfolge (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature
von Model
, das die getModel
-Funktion zurückgegeben hat.
Die Werte können im Bereich von [0.0,1.0] (einschließlich) liegen. Je näher der Wert an 1,0 liegt, desto vielfältiger und kreativer sind die Antworten. Ein Wert, der näher an 0,0 liegt, führt in der Regel zu einfacheren Antworten des Modells.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Dieser Wert muss zwischen 1 und 8 liegen. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einen Kandidaten aufgenommen werden sollen.
Wenn dieser Parameter nicht festgelegt ist, wird standardmäßig der in der Model
-Spezifikation angegebene Wert „outputTokenLimit“ verwendet.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die beim Sampling berücksichtigt werden.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Das Top-K-Sampling begrenzt die maximale Anzahl der zu berücksichtigenden Tokens direkt, während das Nucleus-Sampling die Anzahl der Tokens basierend auf der kumulativen Wahrscheinlichkeit begrenzt.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_p
von Model
, das die getModel
-Funktion zurückgegeben hat.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Nucleus-Stichproben.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.top_k
von Model
, das die getModel
-Funktion zurückgegeben hat.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse
.
ContentFilter
Metadaten zur Inhaltsfilterung, die mit der Verarbeitung einer einzelnen Anfrage verknüpft sind.
Der ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund kann nicht angegeben werden.
reason
enum (BlockedReason
)
Der Grund, warum Inhalte während der Verarbeitung des Antrags blockiert wurden.
message
string
Ein String, der das Filterverhalten genauer beschreibt.
JSON-Darstellung |
---|
{
"reason": enum ( |
BlockedReason
Eine Liste der Gründe, aus denen Inhalte möglicherweise blockiert wurden.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Es wurde kein Grund für die Blockierung angegeben. |
SAFETY |
Inhalte wurden durch die Sicherheitseinstellungen blockiert. |
OTHER |
Der Inhalt wurde blockiert, aber der Grund ist nicht kategorisiert. |
Einbettung
Eine Liste von Gleitkommazahlen, die die Einbettung darstellen.
value[]
number
Die Einbettungswerte.
JSON-Darstellung |
---|
{ "value": [ number ] } |
Meldung
Die Basiseinheit für strukturierten Text.
Eine Message
enthält eine author
und die content
des Message
.
Mit dem author
werden Nachrichten getaggt, wenn sie als Text in das Modell eingespeist werden.
content
string
Erforderlich. Der Textinhalt der strukturierten Message
.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitatinformationen für modellgenerierte content
in dieser Message
.
Wenn diese Message
als Ausgabe des Modells generiert wurde, kann dieses Feld mit Attributionsinformationen für jeden Text im content
gefüllt werden. Dieses Feld wird nur für die Ausgabe verwendet.
JSON-Darstellung |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.
Ein MessagePrompt
enthält eine strukturierte Reihe von Feldern, die Kontext für die Unterhaltung bieten, Beispiele für Nachrichtenpaare aus Nutzereingaben und Modellausgaben, die das Modell auf unterschiedliche Weise reagieren lassen, sowie den Unterhaltungsverlauf oder die Liste der Nachrichten, die die abwechselnden Gesprächsrunden zwischen Nutzer und Modell darstellen.
context
string
Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.
Wenn dieses Feld nicht leer ist, wird dieses context
zuerst an das Modell vor examples
und messages
übergeben. Wenn Sie eine context
verwenden, geben Sie sie bei jeder Anfrage an, um für Kontinuität zu sorgen.
Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell sein, um Kontext zu bieten und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifizieren Sie die Stimmung in einer bestimmten Aussage als glücklich, traurig oder neutral.“
Alle in diesem Feld enthaltenen Elemente haben Vorrang vor dem Nachrichtenverlauf, wenn die Eingabegröße insgesamt die inputTokenLimit
des Modells überschreitet und die Eingabeanfrage abgeschnitten wird.
examples[]
object (Example
)
Optional. Beispiele für das, was das Modell generieren soll.
Dies umfasst sowohl Nutzereingaben als auch die Antwort, die das Modell emulieren soll.
Diese examples
werden genauso behandelt wie Unterhaltungsnachrichten, mit der Ausnahme, dass sie Vorrang vor dem Verlauf in messages
haben: Wenn die Gesamtgröße der Eingabe die inputTokenLimit
des Modells überschreitet, wird die Eingabe abgeschnitten. Elemente werden vor dem examples
aus „messages
“ gelöscht.
messages[]
object (Message
)
Erforderlich. Eine Momentaufnahme des aktuellen Unterhaltungsverlaufs, die chronologisch sortiert ist.
Die Sprecher wechseln zwischen zwei Personen.
Wenn die Gesamtgröße der Eingabe die inputTokenLimit
des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages
entfernt.
Beispiel
Ein Eingabe-/Ausgabebeispiel für Anweisungen für das Modell.
Sie zeigt, wie das Modell seine Antwort reagieren oder formatieren soll.
input
object (Message
)
Erforderlich. Ein Beispiel für eine Eingabe Message
des Nutzers.
output
object (Message
)
Erforderlich. Ein Beispiel dafür, was das Modell bei der Eingabe ausgeben sollte.
GenerateTextResponse
Die Antwort des Modells, einschließlich der möglichen Vervollständigungen.
candidates[]
object (TextCompletion
)
Mögliche Antworten aus dem Modell.
filters[]
object (ContentFilter
)
Eine Reihe von Metadaten für die Inhaltsfilterung für den Prompt- und Antworttext.
Hier sehen Sie, welche SafetyCategory
(s) einen Kandidaten für diese Antwort blockiert haben, die niedrigste HarmProbability
, die eine Blockierung ausgelöst hat, und die Einstellung „HarmThreshold“ für diese Kategorie. Dies ist die kleinste Änderung an SafetySettings
, die erforderlich wäre, um die Blockierung von mindestens 1 Antwort aufzuheben.
Das Blockieren wird durch die SafetySettings
in der Anfrage (oder die StandardSafetySettings
der API) konfiguriert.
safetyFeedback[]
object (SafetyFeedback
)
Gibt jegliches Sicherheitsfeedback in Bezug auf das Filtern von Inhalten zurück.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
TextCompletion
Ausgabetext, der von einem Modell zurückgegeben wurde.
output
string
Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.
safetyRatings[]
object (SafetyRating
)
Bewertungen der Sicherheit einer Antwort.
Es gibt maximal eine Bewertung pro Kategorie.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Quellenangaben für die modellgegenerierte output
in diesem TextCompletion
.
Dieses Feld kann mit Informationen zur Quellenangabe für Text aus der output
ausgefüllt werden.
JSON-Darstellung |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Sicherheitsfeedback zu einer gesamten Anfrage.
Dieses Feld wird gefüllt, wenn der Inhalt in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert wird. „SafetyFeedback“ ist möglicherweise nicht für jede „HarmCategory“ vorhanden. Jedes „SafetyFeedback“ gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.
rating
object (SafetyRating
)
Die Sicherheitsbewertung wurde anhand der Inhalte bewertet.
setting
object (SafetySetting
)
Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.
JSON-Darstellung |
---|
{ "rating": { object ( |