Die Gemini API unterstützt das Generieren von Inhalten mit Bildern, Audio, Code, Tools und mehr. Weitere Informationen zu den einzelnen Funktionen finden Sie im Folgenden, in den aufgabenorientierten Beispielcodes oder in den umfassenden Anleitungen.
- Textgenerierung
- Vision
- Audio
- Langer Kontext
- Codeausführung
- JSON-Modus
- Funktionsaufrufe
- Systemanweisungen
Methode: models.generateContent
Generiert eine Modellantwort für eine Eingabe GenerateContentRequest
. Ausführliche Informationen zur Verwendung finden Sie im Leitfaden zur Textgenerierung. Die Eingabefunktionen unterscheiden sich je nach Modell, auch bei abgestimmten Modellen. Weitere Informationen finden Sie in der Modellanleitung und im Abstimmungsleitfaden.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContentPfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: name=models/{model}
. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
verwenden kann, um die nächste Antwort zu generieren.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die schädlichen Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. In den Sicherheitshinweisen erfahren Sie, wie Sie Sicherheitsaspekte in Ihren KI-Anwendungen berücksichtigen können.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Codeausführung
Python
Kotlin
Java
Funktionsaufrufe
Python
Node.js
Muschel
Kotlin
Swift
Dart
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: models.streamGenerateContent
Generiert eine gestreamte Antwort aus dem Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContentPfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: name=models/{model}
. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für eine in der Anfrage angegebene Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies wird am GenerateContentRequest.contents
und GenerateContentResponse.candidates
erzwungen. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Vom Entwickler festgelegte Systemanweisung(en). Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
GenerateContentResponse
Antwort des Modells, die mehrere Antwortvorschläge unterstützt.
Altersfreigaben und Inhaltsfilter werden sowohl für den Prompt in GenerateContentResponse.prompt_feedback
als auch für jeden Kandidaten in finishReason
und safetyRatings
angegeben. Die API: – Gibt entweder alle angeforderten Kandidaten zurück oder keine. – Gibt nur dann keine Kandidaten zurück, wenn etwas mit dem Prompt nicht stimmt (promptFeedback
prüfen). – Gibt Feedback zu jedem Kandidaten in finishReason
und safetyRatings
zurück.
candidates[]
object (Candidate
)
Potenzielle Antworten des Modells.
promptFeedback
object (PromptFeedback
)
Gibt das Feedback des Prompts in Bezug auf die Inhaltsfilter zurück.
usageMetadata
object (UsageMetadata
)
Nur Ausgabe. Metadaten zur Tokennutzung bei den Generierungsanfragen.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
PromptFeedback
Ein Satz der Feedback-Metadaten, die der in GenerateContentRequest.content
angegebene Prompt enthält.
blockReason
enum (BlockReason
)
Optional. Wenn festgelegt, wurde die Aufforderung blockiert und es werden keine Kandidaten zurückgegeben. Formulieren Sie den Prompt um.
safetyRatings[]
object (SafetyRating
)
Bewertungen der Sicherheit des Prompts. Pro Kategorie ist maximal eine Altersfreigabe zulässig.
JSON-Darstellung |
---|
{ "blockReason": enum ( |
BlockReason
Gibt den Grund an, warum der Prompt blockiert wurde.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
SAFETY |
Der Prompt wurde aus Sicherheitsgründen blockiert. Sehen Sie sich safetyRatings an, um zu erfahren, in welcher Sicherheitskategorie die Blockierung erfolgte. |
OTHER |
Der Prompt wurde aus unbekannten Gründen blockiert. |
BLOCKLIST |
Der Prompt wurde aufgrund der Begriffe blockiert, die in der Sperrliste für Begriffe enthalten sind. |
PROHIBITED_CONTENT |
Der Prompt wurde aufgrund unzulässiger Inhalte blockiert. |
UsageMetadata
Metadaten zur Tokennutzung der Generierungsanfrage.
promptTokenCount
integer
Anzahl der Tokens im Prompt. Wenn cachedContent
festgelegt ist, ist dies immer noch die effektive Gesamtgröße der Aufforderung. Das bedeutet, dass sie auch die Anzahl der Tokens im Cache-Inhalt umfasst.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (im Cache gespeicherte Inhalte)
candidatesTokenCount
integer
Die Gesamtzahl der Tokens aller generierten Antwortkandidaten.
totalTokenCount
integer
Gesamtzahl der Tokens für die Generierungsanfrage (Eingabeaufforderung + Antwortkandidaten).
JSON-Darstellung |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Kandidat
- JSON-Darstellung
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segmentieren
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Kandidat
Ein aus dem Modell generierter Antwortkandidat.
content
object (Content
)
Nur Ausgabe. Vom Modell zurückgegebene generierte Inhalte.
finishReason
enum (FinishReason
)
Optional. Nur Ausgabe. Der Grund, warum das Modell keine Tokens mehr generiert.
Wenn leer, wird das Modell weiterhin die Tokens generieren.
safetyRatings[]
object (SafetyRating
)
Liste der Bewertungen für die Sicherheit eines Antwortkandidaten.
Pro Kategorie ist maximal eine Altersfreigabe zulässig.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Informationen zur Quellenangabe für den vom Modell generierten Kandidaten.
Dieses Feld kann mit Informationen für jeden Text im content
gefüllt werden. Dies sind Passagen, die aus urheberrechtlich geschützten Inhalten in den Trainingsdaten des grundlegenden LLM „vorgetragen“ werden.
tokenCount
integer
Nur Ausgabe. Anzahl der Tokens für diesen Kandidaten.
groundingAttributions[]
object (GroundingAttribution
)
Nur Ausgabe. Angaben zur Quelle von Informationen, die zu einer fundierten Antwort beigetragen haben.
Dieses Feld wird für GenerateAnswer
-Aufrufe ausgefüllt.
groundingMetadata
object (GroundingMetadata
)
Nur Ausgabe. Fundierungsmetadaten für den Kandidaten.
Dieses Feld wird für GenerateContent
-Aufrufe ausgefüllt.
avgLogprobs
number
Nur Ausgabe.
logprobsResult
object (LogprobsResult
)
Nur Ausgabe. Logwahrscheinlichkeitswerte für die Antworttokens und Top-Tokens
index
integer
Nur Ausgabe. Index des Kandidaten in der Liste der Antwortkandidaten.
JSON-Darstellung |
---|
{ "content": { object ( |
FinishReason
Der Grund, warum das Modell keine Tokens mehr generiert.
Enums | |
---|---|
FINISH_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
STOP |
Natürlicher Stopppunkt des Modells oder angegebene Stoppsequenz. |
MAX_TOKENS |
Die in der Anfrage angegebene maximale Anzahl von Tokens wurde erreicht. |
SAFETY |
Der Inhalt des Antwortkandidaten wurde aus Sicherheitsgründen gemeldet. |
RECITATION |
Der Inhalt der Antwortvorlage wurde aus Gründen der Aussprache gemeldet. |
LANGUAGE |
Der Inhalt der Antwortvorlage wurde wegen Verwendung einer nicht unterstützten Sprache gemeldet. |
OTHER |
Unbekannter Grund. |
BLOCKLIST |
Die Tokengenerierung wurde gestoppt, weil der Inhalt unzulässige Begriffe enthält. |
PROHIBITED_CONTENT |
Tokengenerierung wegen potenziell unzulässiger Inhalte gestoppt. |
SPII |
Die Tokengenerierung wurde gestoppt, da die Inhalte potenziell vertrauliche personenidentifizierbare Informationen enthalten. |
MALFORMED_FUNCTION_CALL |
Der vom Modell generierte Funktionsaufruf ist ungültig. |
GroundingAttribution
Quellenangabe für eine Quelle, die zu einer Antwort beigetragen hat.
sourceId
object (AttributionSourceId
)
Nur Ausgabe. Kennung der Quelle, die zu dieser Zuordnung beigetragen hat.
content
object (Content
)
Die zugrunde liegenden Quellinhalte, aus denen sich diese Attribution zusammensetzt.
JSON-Darstellung |
---|
{ "sourceId": { object ( |
AttributionSourceId
Kennung für die Quelle, die zu dieser Attribution beiträgt.
Union-Feld source
.
Für source
ist nur einer der folgenden Werte zulässig:
groundingPassage
object (GroundingPassageId
)
Kennung für einen Inline-Passage.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Kennung für eine Chunk
, die über den semantischen Retriever abgerufen wurde.
JSON-Darstellung |
---|
{ // Union field |
GroundingPassageId
Kennung für einen Teil innerhalb eines GroundingPassage
.
passageId
string
Nur Ausgabe. ID des Abschnitts, der mit der GroundingPassage.id
des GenerateAnswerRequest
übereinstimmt.
partIndex
integer
Nur Ausgabe. Index des Teils innerhalb des GroundingPassage.content
-Elements der GenerateAnswerRequest
.
JSON-Darstellung |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Kennung für eine Chunk
, die über den Semantic Retriever in der GenerateAnswerRequest
unter Verwendung von SemanticRetrieverConfig
abgerufen wurde.
source
string
Nur Ausgabe. Name der Quelle, der mit der SemanticRetrieverConfig.source
der Anfrage übereinstimmt. Beispiel: corpora/123
oder corpora/123/documents/abc
chunk
string
Nur Ausgabe. Name des Chunk
, das den zugeordneten Text enthält. Beispiel: corpora/123/documents/abc/chunks/xyz
JSON-Darstellung |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadaten, die an den Client zurückgegeben werden, wenn die Erdung aktiviert ist.
groundingChunks[]
object (GroundingChunk
)
Liste der unterstützenden Referenzen, die aus der angegebenen Erdungsquelle abgerufen wurden.
groundingSupports[]
object (GroundingSupport
)
Liste der unterstützten Schutzmaßnahmen.
webSearchQueries[]
string
Suchanfragen für die anschließende Websuche.
searchEntryPoint
object (SearchEntryPoint
)
Optional. Google-Sucheingabe für die nachfolgenden Websuchen.
retrievalMetadata
object (RetrievalMetadata
)
Metadaten zum Abrufen im Ablauf der Erdung.
JSON-Darstellung |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Einstiegspunkt für die Google-Suche.
renderedContent
string
Optional. Webcontent-Snippet, das in eine Webseite oder eine App-Webansicht eingebettet werden kann.
sdkBlob
string (bytes format)
Optional. Base64-codiertes JSON, das ein Array von Tupeln vom Typ <Suchbegriff, Such-URL> darstellt.
Ein base64-codierter String.
JSON-Darstellung |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Erdungs-Chunk.
chunk_type
. Chunk-Typ. Für chunk_type
ist nur einer der folgenden Werte zulässig:
web
object (Web
)
Erdungs-Chunk aus dem Web
JSON-Darstellung |
---|
{ // Union field |
Web
Aus dem Web
uri
string
URI-Referenz des Chunks.
title
string
Titel des Chunks.
JSON-Darstellung |
---|
{ "uri": string, "title": string } |
GroundingSupport
Erdung
groundingChunkIndices[]
integer
Eine Liste von Indizes (in „grounding_chunk“) mit den Zitaten, die mit dem Anspruch verknüpft sind. Beispiel: [1,3,4] bedeutet, dass grounding_chunk[1], grounding_chunk[3] und grounding_chunk[4] die abgerufenen Inhalte sind, die der Behauptung zugeordnet sind.
confidenceScores[]
number
Konfidenzwert der Supportverweise. Der Bereich liegt zwischen 0 und 1. „1“ ist die höchste Stufe. Diese Liste muss dieselbe Größe wie die groundingChunkIndices haben.
segment
object (Segment
)
Segment der Inhalte, zu dem dieser Support gehört.
JSON-Darstellung |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segment
Segment des Inhalts.
partIndex
integer
Nur Ausgabe. Der Index eines Teilobjekts innerhalb seines übergeordneten Inhaltsobjekts.
startIndex
integer
Nur Ausgabe. Startindex im angegebenen Teil, gemessen in Byte. Versatz vom Anfang des Part, einschließlich, beginnend bei null.
endIndex
integer
Nur Ausgabe. Endindex im angegebenen Teil, gemessen in Byte. Offset vom Anfang des Teils, exklusiv, beginnend bei null.
text
string
Nur Ausgabe. Der Text, der dem Segment aus der Antwort entspricht.
JSON-Darstellung |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadaten zum Abrufen im Ablauf der Erdung.
googleSearchDynamicRetrievalScore
number
Optional. Ein Wert, der angibt, wie wahrscheinlich es ist, dass Informationen aus der Google Suche zur Beantwortung des Prompts beitragen können. Der Wert liegt im Bereich [0, 1], wobei 0 die geringste und 1 die höchste Wahrscheinlichkeit bedeutet. Dieser Wert wird nur erfasst, wenn die Google Suche und die dynamische Abfrage aktiviert sind. Er wird mit dem Grenzwert verglichen, um zu bestimmen, ob die Google-Suche ausgelöst werden soll.
JSON-Darstellung |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Logprobs-Ergebnis
topCandidates[]
object (TopCandidates
)
Länge = Gesamtzahl der Decodierungsschritte.
chosenCandidates[]
object (Candidate
)
Länge = Gesamtzahl der Dekodierungsschritte. Die ausgewählten Kandidaten befinden sich möglicherweise in „topCandidates“.
JSON-Darstellung |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Kandidaten mit den höchsten Log-Wahrscheinlichkeiten bei jedem Dekodierungsschritt.
candidates[]
object (Candidate
)
In absteigender Reihenfolge nach der Logarithmus der Wahrscheinlichkeit sortiert.
JSON-Darstellung |
---|
{
"candidates": [
{
object ( |
Kandidat
Kandidat für das Logprobs-Token und die Punktzahl.
token
string
Der Tokenstringwert des Kandidaten.
tokenId
integer
Der Token-ID-Wert des Kandidaten.
logProbability
number
Die Logwahrscheinlichkeit des Kandidaten.
JSON-Darstellung |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
Zitat-MetadatenS
Eine Sammlung von Quellenzuordnungen für einen Inhalt.
citationSources[]
object (CitationSource
)
Quellenangaben für eine bestimmte Antwort.
JSON-Darstellung |
---|
{
"citationSources": [
{
object ( |
CitationSource
Eine Quelle für einen Teil einer bestimmten Antwort.
startIndex
integer
Optional. Beginn des Antwortsegments, das dieser Quelle zugeordnet ist.
Der Index gibt den Anfang des Segments in Byte an.
endIndex
integer
Optional. Ende des zugeordneten Segments, exklusiv.
uri
string
Optional. URI, der als Quelle für einen Teil des Textes angegeben ist.
license
string
Optional. Lizenz für das GitHub-Projekt, das als Quelle für das Segment zugeordnet ist.
Für Codezitate sind Lizenzinformationen erforderlich.
JSON-Darstellung |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
Konfigurationsoptionen für die Modellgenerierung und -ausgaben. Nicht alle Parameter sind für jedes Modell konfigurierbar.
stopSequences[]
string
Optional. Zeichenfolgen (bis zu 5), durch die die Ausgabe generiert wird. Wenn angegeben, wird die API beim ersten Auftreten von stop_sequence
beendet. Die Stoppsequenz ist nicht Teil der Antwort.
responseMimeType
string
Optional. MIME-Typ des generierten Kandidatentexts. Unterstützte MIME-Typen: text/plain
: (Standard) Textausgabe. application/json
: JSON-Antwort in den Antwortkandidaten. text/x.enum
: ENUM als Stringantwort in den Antwortkandidaten. In dieser Dokumentation finden Sie eine Liste aller unterstützten Text-MIME-Typen.
responseSchema
object (Schema
)
Optional. Ausgabeschema des generierten Kandidatentextes. Schemas müssen eine Teilmenge des OpenAPI-Schemas sein und können Objekte, primitive Typen oder Arrays sein.
Wenn dieser Wert festgelegt ist, muss auch ein kompatibler responseMimeType
festgelegt werden. Kompatible MIME-Typen: application/json
: Schema für JSON-Antwort. Weitere Informationen finden Sie im Leitfaden zur JSON-Textgenerierung.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Derzeit kann dieser Wert nur auf „1“ festgelegt werden. Wenn dieser Wert nicht festgelegt ist, wird standardmäßig „1“ verwendet.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einem Antwortkandidaten enthalten sein sollen.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.output_token_limit
des Model
, das von der Funktion getModel
zurückgegeben wird.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature
des Model
, das von der Funktion getModel
zurückgegeben wird.
Die Werte können zwischen [0.0, 2.0] liegen.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Top-P-Stichprobenerhebung (Nucleus-Stichprobe).
Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei der Nucleus-Stichprobe die Anzahl der Tokens anhand der kumulativen Wahrscheinlichkeit begrenzt wird.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut bedeutet, dass das Modell keine Top-K-Stichprobenerhebung anwendet und topK
nicht für Anfragen festgelegt werden kann.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Gemini-Modelle verwenden Top-P-Stichproben (Nucleus-Stichproben) oder eine Kombination aus Top-k- und Nucleus-Sampling. Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Bei Modellen, die mit der Kernstichprobenerhebung ausgeführt werden, ist die Einstellung „Top-K“ nicht zulässig.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut gibt an, dass das Modell kein Top-K-Sampling anwendet und das Festlegen von topK
für Anfragen nicht zulässt.
presencePenalty
number
Optional. Die Anwesenheitsstrafe wird auf die logprobs des nächsten Tokens angewendet, wenn das Token bereits in der Antwort erkannt wurde.
Diese Strafe ist binär (An/Aus) und nicht abhängig von der Häufigkeit, mit der das Token verwendet wird (nach der ersten Verwendung). frequencyPenalty
für eine Strafe, die sich mit jeder Nutzung erhöht.
Eine positive Strafe verhindert die Verwendung von bereits in der Antwort verwendeten Tokens und erhöht so das Vokabular.
Eine negative Strafe fördert die Verwendung von Tokens, die bereits in der Antwort verwendet wurden, wodurch das Vokabular verringert wird.
frequencyPenalty
number
Optional. Häufigkeitsstrafe, die auf die Log-Wahrscheinlichkeit des nächsten Tokens angewendet wird, multipliziert mit der Häufigkeit, mit der jedes Token bisher in der Antwort vorgekommen ist.
Eine positive Strafe rät von der Verwendung von bereits verwendeten Tokens ab, proportional zur Anzahl der Verwendungen des Tokens: Je häufiger ein Token verwendet wird, desto schwieriger ist es für das Modell, dieses Token erneut zu verwenden, wobei das Vokabular der Antworten erhöht wird.
Achtung: Eine negative Strafe bewirkt, dass das Modell Tokens proportional zur Häufigkeit ihrer Verwendung wiederverwendet. Kleine negative Werte reduzieren das Vokabular einer Antwort. Bei größeren negativen Werten wiederholt das Modell ein häufiges Token, bis das Limit von maxOutputTokens
erreicht wird: „…der der der der der…“.
responseLogprobs
boolean
Optional. Bei "true" exportieren Sie die logprobs-Ergebnisse als Antwort.
logprobs
integer
Optional. Nur gültig, wenn responseLogprobs=True
. Dadurch wird die Anzahl der Top-Logproben festgelegt, die bei jedem Decodierungsschritt im Candidate.logprobs_result
zurückgegeben werden sollen.
JSON-Darstellung |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
Die Kategorie einer Bewertung.
Diese Kategorien decken verschiedene Arten von Schäden ab, die Entwickler möglicherweise beheben möchten.
Enums | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Kategorie nicht angegeben |
HARM_CATEGORY_DEROGATORY |
PaLM: Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind. |
HARM_CATEGORY_TOXICITY |
PaLM: Unhöfliche, respektlose oder vulgäre Inhalte. |
HARM_CATEGORY_VIOLENCE |
PaLM: beschreibt Szenarien, in denen Gewalt gegen Einzelpersonen oder Gruppen gezeigt wird, oder beschreibt blutrünstige Darstellungen. |
HARM_CATEGORY_SEXUAL |
PaLM: Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte. |
HARM_CATEGORY_MEDICAL |
PaLM: fördert ungeprüfte medizinische Beratung. |
HARM_CATEGORY_DANGEROUS |
PaLM: Gefährliche Inhalte, die gefährliche Handlungen fördern oder erleichtern bzw. dazu ermuntern. |
HARM_CATEGORY_HARASSMENT |
Gemini: Belästigende Inhalte |
HARM_CATEGORY_HATE_SPEECH |
Gemini: Hassrede und Inhalte. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini – sexuell explizite Inhalte |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini: Gefährliche Inhalte. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini – Inhalte, die dazu verwendet werden können, die gesellschaftliche Integrität zu schädigen. |
SafetyRating
Sicherheitsbewertung für einen Inhalt.
Die Sicherheitsbewertung enthält die Kategorie des Schadens und die Wahrscheinlichkeit des Schadens in dieser Kategorie für einen Inhalt. Inhalte werden in einer Reihe von Schadenskategorien hinsichtlich ihrer Sicherheit klassifiziert. Dabei wird auch die Wahrscheinlichkeit einer Klassifizierung als schädlich berücksichtigt.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Bewertung.
probability
enum (HarmProbability
)
Erforderlich. Die Wahrscheinlichkeit eines Schadens für diesen Inhalt.
blocked
boolean
Wurden diese Inhalte aufgrund dieser Altersfreigabe blockiert?
JSON-Darstellung |
---|
{ "category": enum ( |
HarmProbability
Die Wahrscheinlichkeit, dass ein Inhalt schädlich ist.
Das Klassifizierungssystem gibt die Wahrscheinlichkeit an, dass die Inhalte unsicher sind. Sie gibt nicht an, wie schädlich ein Inhalt ist.
Enums | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
Wahrscheinlichkeit ist nicht angegeben. |
NEGLIGIBLE |
Inhalte sind höchstwahrscheinlich nicht sicher. |
LOW |
Inhalte haben eine geringe Wahrscheinlichkeit, unsicher zu sein. |
MEDIUM |
Inhalte haben eine mittlere Wahrscheinlichkeit, unsicher zu sein. |
HIGH |
Inhalte haben eine hohe Wahrscheinlichkeit, unsicher zu sein. |
SafetySetting
Sicherheitseinstellung, die sich auf das Blockieren von Inhalten auswirkt.
Wenn Sie eine Sicherheitseinstellung für eine Kategorie übergeben, ändert sich die zulässige Wahrscheinlichkeit, dass Inhalte blockiert werden.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Einstellung.
threshold
enum (HarmBlockThreshold
)
Erforderlich. Steuert den Grenzwert für die Wahrscheinlichkeit, ab dem schädliche Inhalte blockiert werden.
JSON-Darstellung |
---|
{ "category": enum ( |
HarmBlockThreshold
Inhalte bei einer bestimmten Wahrscheinlichkeit von Schaden blockieren
Enums | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
Grenzwert nicht angegeben. |
BLOCK_LOW_AND_ABOVE |
Inhalte mit dem Attribut „NEGLIGIBLE“ sind zulässig. |
BLOCK_MEDIUM_AND_ABOVE |
Inhalte mit den Werten NEGLIGIBLE und LOW werden zugelassen. |
BLOCK_ONLY_HIGH |
Inhalte mit den Werten NEGLIGIBLE, LOW und MEDIUM werden zugelassen. |
BLOCK_NONE |
Alle Inhalte sind zulässig. |
OFF |
Deaktivieren Sie den Sicherheitsfilter. |