Die Gemini API unterstützt die Inhaltsgenerierung mit Bildern, Audio, Code, Tools und mehr. Weitere Informationen zu den einzelnen Funktionen finden Sie im Folgenden, in den aufgabenorientierten Beispielcodes oder in den umfassenden Anleitungen.
- Textgenerierung
- Vision
- Audio
- Langer Kontext
- Codeausführung
- JSON-Modus
- Funktionsaufrufe
- Systemanweisungen
Methode: models.generateContent
Generiert eine Modellantwort für eine Eingabe GenerateContentRequest
. Ausführliche Informationen zur Verwendung finden Sie im Leitfaden zur Textgenerierung. Die Eingabefunktionen unterscheiden sich je nach Modell, einschließlich optimierter Modelle. Weitere Informationen finden Sie im Modellleitfaden und im Optimierungsleitfaden.
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateContent
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: models/{model}
. Es hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste eindeutiger SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Codeausführung
Python
Kotlin
Java
Funktionsaufrufe
Python
Node.js
Muschel
Kotlin
Swift
Dart
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: models.streamGenerateContent
Generiert eine gestreamte Antwort aus dem Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:streamGenerateContent
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: models/{model}
. Es hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste eindeutiger SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
GenerateContentResponse
Antwort des Modells, die mehrere Antwortvorschläge unterstützt.
Sicherheitsbewertungen und Inhaltsfilter werden sowohl für den Prompt in GenerateContentResponse.prompt_feedback
als auch für jeden Kandidaten in finishReason
und safetyRatings
gemeldet. Die API: – Gibt entweder alle angeforderten Kandidaten oder keine zurück. – Gibt nur dann keine Kandidaten zurück, wenn etwas mit dem Prompt nicht stimmt (promptFeedback
prüfen). – Gibt Feedback zu jedem Kandidaten in finishReason
und safetyRatings
zurück.
candidates[]
object (Candidate
)
Potenzielle Antworten des Modells.
promptFeedback
object (PromptFeedback
)
Gibt das Feedback zum Prompt im Hinblick auf die Inhaltsfilter zurück.
usageMetadata
object (UsageMetadata
)
Nur Ausgabe. Metadaten zur Tokennutzung bei den Generierungsanfragen.
modelVersion
string
Nur Ausgabe. Die Modellversion, die zum Generieren der Antwort verwendet wurde.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
PromptFeedback
Ein Satz von Feedback-Metadaten, die in GenerateContentRequest.content
für den Prompt angegeben wurden.
blockReason
enum (BlockReason
)
Optional. Wenn diese Option festgelegt ist, wurde der Prompt blockiert und es werden keine Kandidaten zurückgegeben. Formulieren Sie den Prompt um.
safetyRatings[]
object (SafetyRating
)
Bewertungen der Sicherheit des Prompts. Pro Kategorie ist maximal eine Altersfreigabe zulässig.
JSON-Darstellung |
---|
{ "blockReason": enum ( |
BlockReason
Gibt den Grund an, warum der Prompt blockiert wurde.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
SAFETY |
Der Prompt wurde aus Sicherheitsgründen blockiert. Sehen Sie sich safetyRatings an, um zu erfahren, in welcher Sicherheitskategorie die Blockierung erfolgte. |
OTHER |
Der Prompt wurde aus unbekannten Gründen blockiert. |
BLOCKLIST |
Der Prompt wurde aufgrund der Begriffe blockiert, die in der Sperrliste für Begriffe enthalten sind. |
PROHIBITED_CONTENT |
Der Prompt wurde aufgrund unzulässiger Inhalte blockiert. |
UsageMetadata
Metadaten zur Tokennutzung der Generierungsanfrage.
promptTokenCount
integer
Anzahl der Tokens im Prompt. Wenn cachedContent
festgelegt ist, entspricht dies weiterhin der effektiven Gesamtgröße des Prompts, einschließlich der Anzahl der Tokens im Cache-Inhalt.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (im Cache gespeicherte Inhalte)
candidatesTokenCount
integer
Die Gesamtzahl der Tokens aller generierten Antwortkandidaten.
totalTokenCount
integer
Die Gesamtzahl der Tokens für die Generierungsanfrage (Prompt + Antwortkandidaten).
JSON-Darstellung |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Kandidat
- JSON-Darstellung
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segment
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Kandidat
Ein vom Modell generierter Antwortkandidat.
content
object (Content
)
Nur Ausgabe. Vom Modell zurückgegebene generierte Inhalte.
finishReason
enum (FinishReason
)
Optional. Nur Ausgabe. Der Grund, warum das Modell keine Tokens mehr generiert.
Wenn leer, wird das Modell weiterhin die Tokens generieren.
safetyRatings[]
object (SafetyRating
)
Liste der Bewertungen für die Sicherheit eines Antwortkandidaten.
Pro Kategorie ist maximal eine Altersfreigabe zulässig.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Informationen zur Quellenangabe für den vom Modell generierten Kandidaten.
Dieses Feld kann mit Informationen zur Rezitation für jeden Text aus der content
ausgefüllt werden. Dies sind Passagen, die aus urheberrechtlich geschützten Inhalten in den Trainingsdaten des grundlegenden LLM „vorgetragen“ werden.
tokenCount
integer
Nur Ausgabe. Anzahl der Tokens für diesen Kandidaten.
groundingAttributions[]
object (GroundingAttribution
)
Nur Ausgabe. Angaben zur Quelle von Informationen, die zu einer fundierten Antwort beigetragen haben.
Dieses Feld wird für GenerateAnswer
-Anrufe ausgefüllt.
groundingMetadata
object (GroundingMetadata
)
Nur Ausgabe. Metadaten für den Kandidaten
Dieses Feld wird für GenerateContent
-Anrufe ausgefüllt.
avgLogprobs
number
Nur Ausgabe. Durchschnittliche logistische Wahrscheinlichkeitsbewertung des Kandidaten.
logprobsResult
object (LogprobsResult
)
Nur Ausgabe. Log-Likelihood-Werte für die Antwort- und Top-Tokens
index
integer
Nur Ausgabe. Index des Kandidaten in der Liste der Antwortkandidaten.
JSON-Darstellung |
---|
{ "content": { object ( |
FinishReason
Der Grund, warum das Modell keine Tokens mehr generiert.
Enums | |
---|---|
FINISH_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
STOP |
Natürlicher Stopppunkt des Modells oder angegebene Stoppsequenz. |
MAX_TOKENS |
Die in der Anfrage angegebene maximale Anzahl von Tokens wurde erreicht. |
SAFETY |
Der Inhalt des Antwortkandidaten wurde aus Sicherheitsgründen gemeldet. |
RECITATION |
Der Inhalt der Antwortvorlage wurde aus Gründen der Aussprache gemeldet. |
LANGUAGE |
Der Inhalt der Antwortvorlage wurde wegen Verwendung einer nicht unterstützten Sprache gemeldet. |
OTHER |
Unbekannter Grund. |
BLOCKLIST |
Die Tokengenerierung wurde gestoppt, weil die Inhalte verbotene Begriffe enthalten. |
PROHIBITED_CONTENT |
Die Tokengenerierung wurde gestoppt, da die Antwort potenziell unzulässige Inhalte enthält. |
SPII |
Die Tokengenerierung wurde gestoppt, da der Inhalt potenziell vertrauliche personenidentifizierbare Informationen enthält. |
MALFORMED_FUNCTION_CALL |
Der vom Modell generierte Funktionsaufruf ist ungültig. |
GroundingAttribution
Quellenangabe für eine Quelle, die zu einer Antwort beigetragen hat.
sourceId
object (AttributionSourceId
)
Nur Ausgabe. Kennung für die Quelle, die zu dieser Attribution beiträgt.
content
object (Content
)
Die zugrunde liegenden Quellinhalte, aus denen sich diese Attribution zusammensetzt.
JSON-Darstellung |
---|
{ "sourceId": { object ( |
AttributionSourceId
Kennung für die Quelle, die zu dieser Attribution beiträgt.
source
Union type
source
ist nur einer der folgenden Werte zulässig:groundingPassage
object (GroundingPassageId
)
Kennung für einen Inline-Passage.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Kennung für eine Chunk
, die über den semantischen Retriever abgerufen wurde.
JSON-Darstellung |
---|
{ // source "groundingPassage": { object ( |
GroundingPassageId
Kennung für einen Teil innerhalb eines GroundingPassage
.
passageId
string
Nur Ausgabe. ID des Abschnitts, der mit der GroundingPassage.id
des GenerateAnswerRequest
übereinstimmt.
partIndex
integer
Nur Ausgabe. Index des Teils innerhalb des GroundingPassage.content
der GenerateAnswerRequest
.
JSON-Darstellung |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Kennung für ein Chunk
, das über den Semantic Retriever abgerufen wurde und in der GenerateAnswerRequest
mit SemanticRetrieverConfig
angegeben ist.
source
string
Nur Ausgabe. Name der Quelle, die mit der SemanticRetrieverConfig.source
der Anfrage übereinstimmt. Beispiel: corpora/123
oder corpora/123/documents/abc
chunk
string
Nur Ausgabe. Name des Chunk
, das den zugeordneten Text enthält. Beispiel: corpora/123/documents/abc/chunks/xyz
JSON-Darstellung |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadaten, die an den Client zurückgegeben werden, wenn die Erdung aktiviert ist.
groundingChunks[]
object (GroundingChunk
)
Liste der unterstützenden Referenzen, die aus der angegebenen Erdungsquelle abgerufen wurden.
groundingSupports[]
object (GroundingSupport
)
Liste der unterstützten Schutzmaßnahmen.
webSearchQueries[]
string
Suchanfragen für die anschließende Websuche.
searchEntryPoint
object (SearchEntryPoint
)
Optional. Google-Sucheingabe für die nachfolgenden Websuchen.
retrievalMetadata
object (RetrievalMetadata
)
Metadaten zum Abrufen im Ablauf der Datengrundlage.
JSON-Darstellung |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Einstiegspunkt in der Google Suche.
renderedContent
string
Optional. Webcontent-Snippet, das in eine Webseite oder eine App-Webansicht eingebettet werden kann.
sdkBlob
string (bytes format)
Optional. Base64-codiertes JSON, das ein Array von Tupeln vom Typ <Suchbegriff, Such-URL> darstellt.
Ein base64-codierter String.
JSON-Darstellung |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Grundlegender Block
chunk_type
Union type
chunk_type
ist nur einer der folgenden Werte zulässig:web
object (Web
)
Erdungs-Chunk aus dem Web
JSON-Darstellung |
---|
{
// chunk_type
"web": {
object ( |
Web
Aus dem Web
uri
string
URI-Referenz des Chunks.
title
string
Titel des Chunks.
JSON-Darstellung |
---|
{ "uri": string, "title": string } |
GroundingSupport
Erdung
groundingChunkIndices[]
integer
Eine Liste von Indizes (in „grounding_chunk“) mit den Zitaten, die mit dem Anspruch verknüpft sind. Beispiel: [1,3,4] bedeutet, dass grounding_chunk[1], grounding_chunk[3] und grounding_chunk[4] die abgerufenen Inhalte sind, die der Behauptung zugeordnet sind.
confidenceScores[]
number
Konfidenzwert der Supportreferenzen. Liegt im Bereich von 0 bis 1. „1“ ist die höchste Stufe. Diese Liste muss dieselbe Größe wie die groundingChunkIndices haben.
segment
object (Segment
)
Segment der Inhalte, zu dem dieser Support gehört.
JSON-Darstellung |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segment
Segment des Inhalts.
partIndex
integer
Nur Ausgabe. Der Index eines Teilobjekts innerhalb seines übergeordneten Inhaltsobjekts.
startIndex
integer
Nur Ausgabe. Startindex im angegebenen Teil, gemessen in Byte. Offset vom Anfang des Teils, einschließlich, beginnend bei null.
endIndex
integer
Nur Ausgabe. Endindex im angegebenen Teil, gemessen in Byte. Offset vom Anfang des Teils, exklusiv, beginnend bei null.
text
string
Nur Ausgabe. Der Text, der dem Segment aus der Antwort entspricht.
JSON-Darstellung |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadaten zum Abrufen im Ablauf der Datengrundlage.
googleSearchDynamicRetrievalScore
number
Optional. Ein Wert, der angibt, wie wahrscheinlich es ist, dass Informationen aus der Google Suche zur Beantwortung des Prompts beitragen können. Der Wert liegt im Bereich [0, 1], wobei 0 die geringste und 1 die höchste Wahrscheinlichkeit bedeutet. Dieser Wert wird nur erfasst, wenn die Funktion „Mit der Google Suche fundieren“ und die dynamische Abfrage aktiviert sind. Er wird mit dem Schwellenwert verglichen, um festzustellen, ob die Google Suche ausgelöst werden soll.
JSON-Darstellung |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Logprobs-Ergebnis
topCandidates[]
object (TopCandidates
)
Länge = Gesamtzahl der Dekodierungsschritte.
chosenCandidates[]
object (Candidate
)
Länge = Gesamtzahl der Dekodierungsschritte. Die ausgewählten Kandidaten befinden sich möglicherweise in „topCandidates“.
JSON-Darstellung |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Kandidaten mit den höchsten Log-Wahrscheinlichkeiten bei jedem Dekodierungsschritt.
candidates[]
object (Candidate
)
In absteigender Reihenfolge nach der Logarithmus der Wahrscheinlichkeit sortiert.
JSON-Darstellung |
---|
{
"candidates": [
{
object ( |
Kandidat
Kandidat für das Logprobs-Token und die Punktzahl.
token
string
Der Token-Stringwert des Kandidaten.
tokenId
integer
Der Token-ID-Wert des Kandidaten.
logProbability
number
Die Logwahrscheinlichkeit des Kandidaten.
JSON-Darstellung |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
Zitat-MetadatenS
Eine Sammlung von Quellenangaben für einen Inhalt.
citationSources[]
object (CitationSource
)
Quellenangaben für eine bestimmte Antwort.
JSON-Darstellung |
---|
{
"citationSources": [
{
object ( |
CitationSource
Eine Quelle für einen Teil einer bestimmten Antwort.
startIndex
integer
Optional. Beginn des Antwortsegments, das dieser Quelle zugeordnet ist.
Der Index gibt den Anfang des Segments in Byte an.
endIndex
integer
Optional. Ende des zugeordneten Segments, exklusiv.
uri
string
Optional. URI, der als Quelle für einen Teil des Textes angegeben ist.
license
string
Optional. Lizenz für das GitHub-Projekt, das als Quelle für das Segment zugeordnet ist.
Für Codezitate sind Lizenzinformationen erforderlich.
JSON-Darstellung |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
Konfigurationsoptionen für die Modellgenerierung und -ausgaben. Nicht alle Parameter sind für jedes Modell konfigurierbar.
stopSequences[]
string
Optional. Die Zeichensequenzen (bis zu 5), durch die die Ausgabe generiert wird, beendet wird. Wenn angegeben, wird die API beim ersten Auftreten eines stop_sequence
angehalten. Die Stoppsequenz ist nicht Teil der Antwort.
responseMimeType
string
Optional. MIME-Typ des generierten Kandidatentextes. Unterstützte MIME-Typen: text/plain
: (Standard) Textausgabe. application/json
: JSON-Antwort in den Antwortkandidaten. text/x.enum
: ENUM als Stringantwort in den Antwortkandidaten. Eine Liste aller unterstützten Text-MIME-Typen finden Sie in der Dokumentation.
responseSchema
object (Schema
)
Optional. Ausgabeschema des generierten Kandidatentextes. Schemas müssen eine Teilmenge des OpenAPI-Schemas sein und können Objekte, primitive Typen oder Arrays sein.
Wenn dieser Wert festgelegt ist, muss auch eine kompatible responseMimeType
festgelegt werden. Kompatible MIME-Typen: application/json
: Schema für JSON-Antwort. Weitere Informationen finden Sie im Leitfaden zur JSON-Textgenerierung.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Derzeit kann dieser Wert nur auf „1“ festgelegt werden. Wenn dieser Wert nicht festgelegt ist, wird standardmäßig „1“ verwendet.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einem Antwortkandidaten enthalten sein sollen.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.output_token_limit
des Model
, das von der Funktion getModel
zurückgegeben wird.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature
des Model
, das von der Funktion getModel
zurückgegeben wird.
Die Werte können zwischen [0.0, 2.0] liegen.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Top-P-Stichprobenerhebung (Nucleus-Stichprobe).
Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei der Nucleus-Stichprobe die Anzahl der Tokens anhand der kumulativen Wahrscheinlichkeit begrenzt wird.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut bedeutet, dass das Modell keine Top-K-Stichprobenerhebung anwendet und topK
nicht für Anfragen festgelegt werden kann.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Bei Gemini-Modellen wird die Top-p-Stichprobenerhebung (Nucleus-Stichprobenerhebung) oder eine Kombination aus Top-k- und Nucleus-Stichprobenerhebung verwendet. Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Bei Modellen, die mit der Kernstichprobenerhebung ausgeführt werden, ist die Einstellung „Top-K“ nicht zulässig.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut bedeutet, dass das Modell keine Top-K-Stichprobenerhebung anwendet und topK
nicht für Anfragen festgelegt werden kann.
presencePenalty
number
Optional. Die Anwesenheitsstrafe, die auf die Logprobs des nächsten Tokens angewendet wird, wenn das Token bereits in der Antwort vorgekommen ist.
Diese Strafe ist binär (An/Aus) und nicht abhängig davon, wie oft das Token nach dem ersten Mal verwendet wird. Verwenden Sie frequencyPenalty
für eine Strafe, die mit jeder Nutzung steigt.
Eine positive Strafe verhindert die Verwendung von bereits in der Antwort verwendeten Tokens und erhöht so das Vokabular.
Eine negative Strafe fördert die Verwendung von Tokens, die bereits in der Antwort verwendet wurden, wodurch das Vokabular verringert wird.
frequencyPenalty
number
Optional. Häufigkeitsstrafe, die auf die Log-Wahrscheinlichkeit des nächsten Tokens angewendet wird, multipliziert mit der Häufigkeit, mit der jedes Token bisher in der Antwort vorgekommen ist.
Eine positive Strafe schränkt die Verwendung bereits verwendeter Tokens proportional zur Häufigkeit ein, mit der das Token verwendet wurde: Je häufiger ein Token verwendet wird, desto schwieriger ist es für das Modell, dieses Token noch einmal zu verwenden, wodurch das Vokabular der Antworten erweitert wird.
Achtung: Eine negative Strafe bewirkt, dass das Modell Tokens proportional zur Häufigkeit ihrer Verwendung wiederverwendet. Kleine negative Werte reduzieren das Vokabular einer Antwort. Bei größeren negativen Werten wiederholt das Modell ein gemeinsames Token, bis das Limit von maxOutputTokens
erreicht wird.
responseLogprobs
boolean
Optional. Wenn „wahr“ ist, werden die Log-Wahrscheinlichkeitsergebnisse in der Antwort exportiert.
logprobs
integer
Optional. Nur gültig, wenn responseLogprobs=True
. Damit wird die Anzahl der Top-Logprobs festgelegt, die bei jedem Dekodierungsschritt in der Candidate.logprobs_result
zurückgegeben werden sollen.
enableEnhancedCivicAnswers
boolean
Optional. Aktiviert erweiterte Antworten zu bürgerschaftlichen Themen. Diese Funktion ist möglicherweise nicht für alle Modelle verfügbar.
JSON-Darstellung |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
Die Kategorie einer Altersfreigabe.
Diese Kategorien umfassen verschiedene Arten von Schäden, die Entwickler ggf. anpassen möchten.
Enums | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Kategorie nicht angegeben |
HARM_CATEGORY_DEROGATORY |
PaLM: Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind. |
HARM_CATEGORY_TOXICITY |
PaLM: Unhöfliche, respektlose oder vulgäre Inhalte. |
HARM_CATEGORY_VIOLENCE |
PaLM: Beschreibt Szenarien, in denen Gewalt gegen eine Person oder Gruppe dargestellt wird, oder allgemein blutrünstige Inhalte. |
HARM_CATEGORY_SEXUAL |
PaLM: Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte. |
HARM_CATEGORY_MEDICAL |
PaLM: Ermöglicht die Verbreitung von unbewiesenen medizinischen Ratschlägen. |
HARM_CATEGORY_DANGEROUS |
PaLM: Gefährliche Inhalte, die gefährliche Handlungen fördern oder erleichtern bzw. dazu ermuntern. |
HARM_CATEGORY_HARASSMENT |
Gemini: Belästigende Inhalte |
HARM_CATEGORY_HATE_SPEECH |
Gemini: Hassrede und Inhalte. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini: Sexuell explizite Inhalte. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini: Gefährliche Inhalte. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini: Inhalte, die der Integrität der Zivilgesellschaft schaden können. |
SafetyRating
Sicherheitsbewertung für einen Inhalt.
Die Sicherheitsbewertung enthält die Kategorie des Schadens und die Wahrscheinlichkeit des Schadens in dieser Kategorie für einen Inhalt. Inhalte werden hinsichtlich ihrer Sicherheit in einer Reihe von Schadenskategorien klassifiziert. Dabei wird auch die Wahrscheinlichkeit einer Klassifizierung als schädlich berücksichtigt.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Bewertung.
probability
enum (HarmProbability
)
Erforderlich. Die Wahrscheinlichkeit von Schäden durch diese Inhalte.
blocked
boolean
Wurden diese Inhalte aufgrund dieser Altersfreigabe blockiert?
JSON-Darstellung |
---|
{ "category": enum ( |
HarmProbability
Die Wahrscheinlichkeit, dass ein Inhalt schädlich ist.
Das Klassifizierungssystem gibt die Wahrscheinlichkeit an, dass die Inhalte unsicher sind. Sie gibt nicht an, wie schädlich ein Inhalt ist.
Enums | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
Wahrscheinlichkeit nicht angegeben. |
NEGLIGIBLE |
Inhalte haben eine vernachlässigbare Wahrscheinlichkeit, unsicher zu sein. |
LOW |
Inhalte haben eine geringe Wahrscheinlichkeit, unsicher zu sein. |
MEDIUM |
Inhalte haben eine mittlere Wahrscheinlichkeit, unsicher zu sein. |
HIGH |
Inhalte haben eine hohe Wahrscheinlichkeit, unsicher zu sein. |
SafetySetting
Sicherheitseinstellung, die sich auf das Blockieren von Inhalten auswirkt.
Wenn Sie eine Sicherheitseinstellung für eine Kategorie übergeben, ändert sich die zulässige Wahrscheinlichkeit, dass Inhalte blockiert werden.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Einstellung.
threshold
enum (HarmBlockThreshold
)
Erforderlich. Steuert den Grenzwert für die Wahrscheinlichkeit, ab dem Inhalte blockiert werden.
JSON-Darstellung |
---|
{ "category": enum ( |
HarmBlockThreshold
Blockieren bei einer bestimmten Wahrscheinlichkeit von Schaden und darüber hinaus.
Enums | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
Grenzwert nicht angegeben. |
BLOCK_LOW_AND_ABOVE |
Inhalte mit dem Attribut „NEGLIGIBLE“ sind zulässig. |
BLOCK_MEDIUM_AND_ABOVE |
Inhalte mit den Bewertungen „NEGLIGIBLE“ (GERING) und „LOW“ (NIEDRIG) sind zulässig. |
BLOCK_ONLY_HIGH |
Inhalte mit den Werten „NEGLIGIBLE“, „LOW“ und „MEDIUM“ sind zulässig. |
BLOCK_NONE |
Alle Inhalte sind zulässig. |
OFF |
Deaktivieren Sie den Sicherheitsfilter. |