Die Gemini API unterstützt die Inhaltsgenerierung mit Bildern, Audio, Code, Tools und mehr. Weitere Informationen zu den einzelnen Funktionen finden Sie im Folgenden, in den aufgabenorientierten Beispielcodes oder in den umfassenden Anleitungen.
- Textgenerierung
- Vision
- Audio
- Langer Kontext
- Codeausführung
- JSON-Modus
- Funktionsaufrufe
- Systemanweisungen
Methode: models.generateContent
Generiert eine Modellantwort für eine Eingabe GenerateContentRequest
. Ausführliche Informationen finden Sie im Leitfaden zur Textgenerierung. Die Eingabefunktionen unterscheiden sich zwischen den Modellen, einschließlich der abgestimmten Modelle. Weitere Informationen finden Sie in der Modellanleitung und im Abstimmungsleitfaden.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContentPfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: name=models/{model}
. Es hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie unter Funktionsaufrufe und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ vorhanden sein. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Diese Liste überschreibt die Standardeinstellungen für jede in „safetySettings“ angegebene SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die schädlichen Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Codeausführung
Python
Kotlin
Java
Funktionsaufrufe
Python
Node.js
Muschel
Kotlin
Swift
Dart
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: model.streamGenerateContent
Generiert eine gestreamte Antwort aus dem Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
Post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContentPfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: name=models/{model}
. Es hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
verwenden kann, um die nächste Antwort zu generieren.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Schadenskategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
GenerateContentResponse
Antwort des Modells, die mehrere Antwortvorschläge unterstützt.
Altersfreigaben und Inhaltsfilter werden sowohl für den Prompt in GenerateContentResponse.prompt_feedback
als auch für jeden Kandidaten in finishReason
und safetyRatings
angegeben. Die API: – Gibt entweder alle angeforderten Kandidaten zurück oder keine. – Gibt nur dann keine Kandidaten zurück, wenn etwas mit dem Prompt nicht stimmt (promptFeedback
prüfen). – Gibt Feedback zu jedem Kandidaten in finishReason
und safetyRatings
zurück.
candidates[]
object (Candidate
)
Potenzielle Antworten des Modells.
promptFeedback
object (PromptFeedback
)
Gibt das Feedback zum Prompt im Hinblick auf die Inhaltsfilter zurück.
usageMetadata
object (UsageMetadata
)
Nur Ausgabe. Metadaten zur Tokennutzung bei den Generierungsanfragen.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
PromptFeedback
Ein Satz von Feedback-Metadaten, die in GenerateContentRequest.content
für den Prompt angegeben wurden.
blockReason
enum (BlockReason
)
Optional. Wenn diese Option festgelegt ist, wurde der Prompt blockiert und es werden keine Kandidaten zurückgegeben. Formulieren Sie den Prompt um.
safetyRatings[]
object (SafetyRating
)
Bewertungen der Sicherheit des Prompts. Pro Kategorie ist maximal eine Altersfreigabe zulässig.
JSON-Darstellung |
---|
{ "blockReason": enum ( |
BlockReason
Gibt den Grund an, warum die Aufforderung blockiert wurde.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
SAFETY |
Die Aufforderung wurde aus Sicherheitsgründen blockiert. Sehen Sie sich safetyRatings an, um zu erfahren, in welcher Sicherheitskategorie die Blockierung erfolgte. |
OTHER |
Der Prompt wurde aus unbekannten Gründen blockiert. |
BLOCKLIST |
Der Prompt wurde aufgrund der Begriffe blockiert, die in der Sperrliste für Begriffe enthalten sind. |
PROHIBITED_CONTENT |
Der Prompt wurde aufgrund unzulässiger Inhalte blockiert. |
UsageMetadata
Metadaten zur Tokennutzung der Generierungsanfrage.
promptTokenCount
integer
Anzahl der Tokens im Prompt. Wenn cachedContent
festgelegt ist, ist dies immer noch die effektive Gesamtgröße des Prompts, einschließlich der Anzahl der Tokens im Cache-Inhalt.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil der Aufforderung (der im Cache gespeicherten Inhalt)
candidatesTokenCount
integer
Die Gesamtzahl der Tokens aller generierten Antwortkandidaten.
totalTokenCount
integer
Die Gesamtzahl der Tokens für die Generierungsanfrage (Prompt + Antwortkandidaten).
JSON-Darstellung |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Kandidat
- JSON-Darstellung
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segment
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Kandidat
Ein vom Modell generierter Antwortkandidat.
content
object (Content
)
Nur Ausgabe. Generierter Inhalt, der vom Modell zurückgegeben wird.
finishReason
enum (FinishReason
)
Optional. Nur Ausgabe. Der Grund, warum das Modell keine Tokens mehr generiert.
Wenn leer, wird das Modell weiterhin die Tokens generieren.
safetyRatings[]
object (SafetyRating
)
Liste der Bewertungen für die Sicherheit eines Antwortkandidaten.
Pro Kategorie ist maximal eine Altersfreigabe zulässig.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Informationen zur Quellenangabe für den vom Modell generierten Kandidaten.
Dieses Feld kann mit Informationen für jeden Text im content
gefüllt werden. Dies sind Passagen, die aus urheberrechtlich geschützten Inhalten in den Trainingsdaten des grundlegenden LLM „vorgetragen“ werden.
tokenCount
integer
Nur Ausgabe. Anzahl der Tokens für diesen Kandidaten.
groundingAttributions[]
object (GroundingAttribution
)
Nur Ausgabe. Angaben zur Quelle von Informationen, die zu einer fundierten Antwort beigetragen haben.
Dieses Feld wird für GenerateAnswer
-Aufrufe ausgefüllt.
groundingMetadata
object (GroundingMetadata
)
Nur Ausgabe. Fundierungsmetadaten für den Kandidaten.
Dieses Feld wird für GenerateContent
-Aufrufe ausgefüllt.
avgLogprobs
number
Nur Ausgabe.
logprobsResult
object (LogprobsResult
)
Nur Ausgabe. Log-Likelihood-Werte für die Antwort- und Top-Tokens
index
integer
Nur Ausgabe. Index des Kandidaten in der Liste der Antwortkandidaten.
JSON-Darstellung |
---|
{ "content": { object ( |
FinishReason
Der Grund, warum das Modell keine Tokens mehr generiert.
Enums | |
---|---|
FINISH_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
STOP |
Natürlicher Stopppunkt des Modells oder angegebene Stoppsequenz. |
MAX_TOKENS |
Die in der Anfrage angegebene maximale Anzahl von Tokens wurde erreicht. |
SAFETY |
Der Inhalt des Antwortkandidaten wurde aus Sicherheitsgründen gemeldet. |
RECITATION |
Der Inhalt der Antwortvorlage wurde aus Gründen der Aussprache gemeldet. |
LANGUAGE |
Der Inhalt der Antwortvorlage wurde wegen Verwendung einer nicht unterstützten Sprache gemeldet. |
OTHER |
Unbekannter Grund. |
BLOCKLIST |
Die Tokengenerierung wurde gestoppt, weil der Inhalt unzulässige Begriffe enthält. |
PROHIBITED_CONTENT |
Die Tokengenerierung wurde gestoppt, da die Antwort potenziell unzulässige Inhalte enthält. |
SPII |
Die Tokengenerierung wurde gestoppt, da die Inhalte potenziell vertrauliche personenidentifizierbare Informationen enthalten. |
MALFORMED_FUNCTION_CALL |
Der vom Modell generierte Funktionsaufruf ist ungültig. |
GroundingAttribution
Quellenangabe für eine Quelle, die zu einer Antwort beigetragen hat.
sourceId
object (AttributionSourceId
)
Nur Ausgabe. Kennung für die Quelle, die zu dieser Attribution beiträgt.
content
object (Content
)
Die zugrunde liegenden Quellinhalte, aus denen sich diese Attribution zusammensetzt.
JSON-Darstellung |
---|
{ "sourceId": { object ( |
AttributionSourceId
Kennung für die Quelle, die zu dieser Attribution beiträgt.
Union-Feld source
.
Für source
ist nur einer der folgenden Werte zulässig:
groundingPassage
object (GroundingPassageId
)
Kennung für einen Inline-Passage.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
ID für eine Chunk
, die über Semantic Retriever abgerufen wird.
JSON-Darstellung |
---|
{ // Union field |
GroundingPassageId
Kennung für einen Teil innerhalb eines GroundingPassage
.
passageId
string
Nur Ausgabe. ID der Passage, die mit GroundingPassage.id
der GenerateAnswerRequest
übereinstimmt.
partIndex
integer
Nur Ausgabe. Index des Teils innerhalb des GroundingPassage.content
-Elements der GenerateAnswerRequest
.
JSON-Darstellung |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Kennung für ein Chunk
, das über den Semantic Retriever abgerufen wurde und in der GenerateAnswerRequest
mit SemanticRetrieverConfig
angegeben ist.
source
string
Nur Ausgabe. Name der Quelle, der mit der SemanticRetrieverConfig.source
der Anfrage übereinstimmt. Beispiel: corpora/123
oder corpora/123/documents/abc
chunk
string
Nur Ausgabe. Name von Chunk
, das den zugeordneten Text enthält. Beispiel: corpora/123/documents/abc/chunks/xyz
JSON-Darstellung |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadaten, die an den Client zurückgegeben werden, wenn die Erdung aktiviert ist.
groundingChunks[]
object (GroundingChunk
)
Liste der unterstützenden Referenzen, die aus der angegebenen Erdungsquelle abgerufen wurden.
groundingSupports[]
object (GroundingSupport
)
Liste der unterstützten Schutzmaßnahmen.
webSearchQueries[]
string
Suchanfragen für die anschließende Websuche.
searchEntryPoint
object (SearchEntryPoint
)
Optional. Google-Sucheintrag für folgende Suchanfragen im Web.
retrievalMetadata
object (RetrievalMetadata
)
Metadaten, die sich auf den Abruf im Fundierungsablauf beziehen.
JSON-Darstellung |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Einstiegspunkt in der Google Suche.
renderedContent
string
Optional. Webcontent-Snippet, das in eine Webseite oder eine App-WebView eingebettet werden kann.
sdkBlob
string (bytes format)
Optional. Base64-codiertes JSON, das ein Array von Tupeln vom Typ <Suchbegriff, Such-URL> darstellt.
Ein base64-codierter String.
JSON-Darstellung |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Erdungs-Chunk.
chunk_type
. Chunk-Typ. Für chunk_type
ist nur einer der folgenden Werte zulässig:
web
object (Web
)
Erdungs-Chunk aus dem Web
JSON-Darstellung |
---|
{ // Union field |
Web
Aus dem Web
uri
string
URI-Referenz des Chunks.
title
string
Titel des Chunks.
JSON-Darstellung |
---|
{ "uri": string, "title": string } |
GroundingSupport
Erdung
groundingChunkIndices[]
integer
Eine Liste von Indizes (in „grounding_chunk“) mit den Zitaten, die mit dem Anspruch verknüpft sind. Zum Beispiel bedeutet [1,3,4], dass reasoning_chunk[1], reasoning_chunk[3], reasoning_chunk[4] der abgerufene Inhalt ist, der dem Anspruch zugeordnet ist.
confidenceScores[]
number
Konfidenzwert der Supportreferenzen. Der Bereich liegt zwischen 0 und 1. 1 ist am sichersten. Diese Liste muss dieselbe Größe wie die groundingChunkIndices haben.
segment
object (Segment
)
Segment der Inhalte, zu dem dieser Support gehört.
JSON-Darstellung |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segment
Segment des Inhalts.
partIndex
integer
Nur Ausgabe. Der Index eines Part-Objekts innerhalb seines übergeordneten Content-Objekts.
startIndex
integer
Nur Ausgabe. Startindex im angegebenen Teil, gemessen in Byte. Offset vom Anfang des Teils, einschließlich, beginnend bei null.
endIndex
integer
Nur Ausgabe. Endindex im angegebenen Teil, gemessen in Byte. Offset vom Anfang des Teils, exklusiv, beginnend bei null.
text
string
Nur Ausgabe. Der Text, der dem Segment aus der Antwort entspricht.
JSON-Darstellung |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadaten zum Abrufen im Ablauf der Erdung.
googleSearchDynamicRetrievalScore
number
Optional. Ein Wert, der angibt, wie wahrscheinlich es ist, dass Informationen aus der Google Suche zur Beantwortung des Prompts beitragen können. Der Wert liegt im Bereich [0, 1], wobei 0 die geringste und 1 die höchste Wahrscheinlichkeit bedeutet. Dieser Wert wird nur erfasst, wenn die Fundierung der Google-Suche und der dynamische Abruf aktiviert sind. Er wird mit dem Grenzwert verglichen, um zu bestimmen, ob die Google-Suche ausgelöst werden soll.
JSON-Darstellung |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Logprobs-Ergebnis
topCandidates[]
object (TopCandidates
)
Länge = Gesamtzahl der Dekodierungsschritte.
chosenCandidates[]
object (Candidate
)
Länge = Gesamtzahl der Dekodierungsschritte. Die ausgewählten Kandidaten befinden sich möglicherweise in „topCandidates“.
JSON-Darstellung |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Kandidaten mit den höchsten Log-Wahrscheinlichkeiten bei jedem Dekodierungsschritt.
candidates[]
object (Candidate
)
In absteigender Reihenfolge nach der Logarithmus der Wahrscheinlichkeit sortiert.
JSON-Darstellung |
---|
{
"candidates": [
{
object ( |
Kandidat
Kandidat für das logprobs-Token und den Wert.
token
string
Der Tokenstringwert des Kandidaten.
tokenId
integer
Der Token-ID-Wert des Kandidaten.
logProbability
number
Die logarithmische Wahrscheinlichkeit des Kandidaten.
JSON-Darstellung |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
Zitat-MetadatenS
Eine Sammlung von Quellenangaben für einen Inhalt.
citationSources[]
object (CitationSource
)
Quellenangaben für eine bestimmte Antwort.
JSON-Darstellung |
---|
{
"citationSources": [
{
object ( |
CitationSource
Die Zitation einer Quelle für einen Teil einer bestimmten Antwort.
startIndex
integer
Optional. Beginn des Segments der Antwort, die dieser Quelle zugeordnet ist.
Der Index gibt den Anfang des Segments in Byte an.
endIndex
integer
Optional. Ende des zugeordneten Segments, exklusiv.
uri
string
Optional. URI, der für einen Teil des Textes als Quelle zugeordnet ist.
license
string
Optional. Lizenz für das GitHub-Projekt, das als Quelle für ein Segment angegeben ist.
Für Codezitate sind Lizenzinformationen erforderlich.
JSON-Darstellung |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
Konfigurationsoptionen für Modellgenerierung und -ausgaben. Nicht alle Parameter sind für jedes Modell konfigurierbar.
stopSequences[]
string
Optional. Zeichenfolgen (bis zu 5), durch die die Ausgabe generiert wird. Wenn angegeben, wird die API beim ersten Auftreten von stop_sequence
beendet. Die Stoppsequenz wird nicht in die Antwort aufgenommen.
responseMimeType
string
Optional. MIME-Typ des generierten Kandidatentexts. Unterstützte MIME-Typen: text/plain
: (Standard) Textausgabe. application/json
: JSON-Antwort in den Antwortkandidaten. text/x.enum
: ENUM als Stringantwort in den Antwortkandidaten. Eine Liste aller unterstützten Text-MIME-Typen finden Sie in der Dokumentation.
responseSchema
object (Schema
)
Optional. Ausgabeschema des generierten Kandidatentextes. Schemas müssen eine Teilmenge des OpenAPI-Schemas sein und können Objekte, primitive Typen oder Arrays sein.
Wenn dieser Wert festgelegt ist, muss auch ein kompatibler responseMimeType
festgelegt werden. Kompatible MIME-Typen: application/json
: Schema für JSON-Antwort. Weitere Informationen finden Sie im Leitfaden zur JSON-Textgenerierung.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.
Derzeit kann dieser Wert nur auf „1“ festgelegt werden. Wenn die Richtlinie nicht konfiguriert ist, wird sie standardmäßig auf „1“ gesetzt.
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einem Antwortkandidaten enthalten sein sollen.
Hinweis: Der Standardwert variiert je nach Modell, siehe das Attribut Model.output_token_limit
von Model
, das von der Funktion getModel
zurückgegeben wird.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Hinweis: Der Standardwert variiert je nach Modell. Siehe das Attribut Model.temperature
von Model
, das von der Funktion getModel
zurückgegeben wird.
Die Werte können zwischen [0.0, 2.0] liegen.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-K- und Top-P-Stichprobenerhebung (Nucleus-Stichprobe).
Die Tokens werden anhand der zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Bei der Top-K-Stichprobe wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während bei der Nucleus-Stichprobe die Anzahl der Tokens anhand der kumulativen Wahrscheinlichkeit begrenzt wird.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut bedeutet, dass das Modell keine Top-K-Stichprobenerhebung anwendet und topK
nicht für Anfragen festgelegt werden kann.
topK
integer
Optional. Die maximale Anzahl von Tokens, die bei der Stichprobenerhebung berücksichtigt werden sollen.
Bei Gemini-Modellen wird die Top-p-Stichprobenerhebung (Nucleus-Stichprobenerhebung) oder eine Kombination aus Top-K- und Nucleus-Stichprobenerhebung verwendet. Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Bei Modellen, die mit der Kernstichprobenerhebung ausgeführt werden, ist die Einstellung „Top-K“ nicht zulässig.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut bedeutet, dass das Modell keine Top-K-Stichprobenerhebung anwendet und topK
nicht für Anfragen festgelegt werden kann.
presencePenalty
number
Optional. Anwesenheitsstrafe, die auf die Logprobs des nächsten Tokens angewendet wird, wenn das Token bereits in der Antwort vorgekommen ist.
Diese Strafe ist binär ein/aus und hängt nicht davon ab, wie oft das Token (nach dem ersten) verwendet wird. Verwenden Sie frequencyPenalty
für eine Strafe, die mit jeder Nutzung steigt.
Eine positive Strafe verhindert die Verwendung von bereits in der Antwort verwendeten Tokens und erhöht so das Vokabular.
Eine negative Strafe fördert die Verwendung von Tokens, die bereits in der Antwort verwendet wurden, wodurch das Vokabular verringert wird.
frequencyPenalty
number
Optional. Häufigkeitsstrafe, die auf die Log-Wahrscheinlichkeit des nächsten Tokens angewendet wird, multipliziert mit der Häufigkeit, mit der jedes Token bisher in der Antwort vorgekommen ist.
Eine positive Strafe schränkt die Verwendung bereits verwendeter Tokens proportional zur Häufigkeit ein, mit der das Token verwendet wurde: Je häufiger ein Token verwendet wird, desto schwieriger ist es für das Modell, dieses Token noch einmal zu verwenden, wodurch das Vokabular der Antworten erweitert wird.
Achtung: Eine negative Strafe bewirkt, dass das Modell Tokens proportional zur Häufigkeit ihrer Verwendung wiederverwendet. Kleine negative Werte reduzieren das Vokabular einer Antwort. Bei größeren negativen Werten wiederholt das Modell ein häufiges Token, bis das Limit von maxOutputTokens
erreicht wird: „…der der der der der…“.
responseLogprobs
boolean
Optional. Wenn „wahr“ ist, werden die Logprobs-Ergebnisse in der Antwort exportiert.
logprobs
integer
Optional. Nur gültig, wenn responseLogprobs=True
. Damit wird die Anzahl der Top-Logprobs festgelegt, die bei jedem Dekodierungsschritt in der Candidate.logprobs_result
zurückgegeben werden sollen.
JSON-Darstellung |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
Die Kategorie einer Altersfreigabe.
Diese Kategorien umfassen verschiedene Arten von Schäden, die Entwickler ggf. anpassen möchten.
Enums | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Kategorie nicht angegeben |
HARM_CATEGORY_DEROGATORY |
PaLM: Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind. |
HARM_CATEGORY_TOXICITY |
PaLM: Unhöfliche, respektlose oder vulgäre Inhalte. |
HARM_CATEGORY_VIOLENCE |
PaLM: Beschreibt Szenarien, in denen Gewalt gegen eine Person oder Gruppe dargestellt wird, oder allgemein blutrünstige Inhalte. |
HARM_CATEGORY_SEXUAL |
PaLM: Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte. |
HARM_CATEGORY_MEDICAL |
PaLM: Ermöglicht die Verbreitung von unbewiesenen medizinischen Ratschlägen. |
HARM_CATEGORY_DANGEROUS |
PaLM: Gefährliche Inhalte, die schädliche Handlungen fördern, erleichtern oder dazu ermuntern. |
HARM_CATEGORY_HARASSMENT |
Gemini: Belästigende Inhalte |
HARM_CATEGORY_HATE_SPEECH |
Gemini: Hassrede und Inhalte. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini: Sexuell explizite Inhalte. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini: Gefährliche Inhalte. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini: Inhalte, die der Integrität der Zivilgesellschaft schaden können. |
SafetyRating
Sicherheitsbewertung für einen Inhalt
Die Sicherheitsbewertung enthält die Kategorie des Schadens und die Wahrscheinlichkeit des Schadens in dieser Kategorie für einen Inhalt. Inhalte werden in einer Reihe von Schadenskategorien hinsichtlich ihrer Sicherheit klassifiziert. Dabei wird auch die Wahrscheinlichkeit einer Klassifizierung als schädlich berücksichtigt.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Bewertung.
probability
enum (HarmProbability
)
Erforderlich. Die Wahrscheinlichkeit von Schäden durch diese Inhalte.
blocked
boolean
Wurden diese Inhalte aufgrund dieser Altersfreigabe blockiert?
JSON-Darstellung |
---|
{ "category": enum ( |
HarmProbability
Die Wahrscheinlichkeit, dass ein Inhalt schädlich ist.
Das Klassifizierungssystem gibt die Wahrscheinlichkeit an, dass die Inhalte unsicher sind. Sie gibt jedoch nicht an, wie schwer ein Schaden für einen bestimmten Inhalt ist.
Enums | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
Wahrscheinlichkeit ist nicht angegeben. |
NEGLIGIBLE |
Inhalte haben eine vernachlässigbare Wahrscheinlichkeit, unsicher zu sein. |
LOW |
Inhalte haben eine geringe Wahrscheinlichkeit, unsicher zu sein. |
MEDIUM |
Bei Inhalten besteht eine mittlere Wahrscheinlichkeit, dass sie unsicher sind. |
HIGH |
Inhalte sind mit hoher Wahrscheinlichkeit unsicher. |
SafetySetting
Sicherheitseinstellung, die sich auf das Blockieren von Inhalten auswirkt.
Wenn Sie eine Sicherheitseinstellung für eine Kategorie übergeben, ändert sich die zulässige Wahrscheinlichkeit, dass Inhalte blockiert werden.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Einstellung.
threshold
enum (HarmBlockThreshold
)
Erforderlich. Steuert den Grenzwert für die Wahrscheinlichkeit, ab dem schädliche Inhalte blockiert werden.
JSON-Darstellung |
---|
{ "category": enum ( |
HarmBlockThreshold
Inhalte bei einer bestimmten Wahrscheinlichkeit von Schaden blockieren
Enums | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
Grenzwert nicht angegeben. |
BLOCK_LOW_AND_ABOVE |
Inhalte mit dem Attribut „NEGLIGIBLE“ sind zulässig. |
BLOCK_MEDIUM_AND_ABOVE |
Inhalte mit den Bewertungen „NEGLIGIBLE“ (GERING) und „LOW“ (NIEDRIG) sind zulässig. |
BLOCK_ONLY_HIGH |
Inhalte mit den Werten NEGLIGIBLE, LOW und MEDIUM werden zugelassen. |
BLOCK_NONE |
Alle Inhalte sind zulässig. |
OFF |
Deaktivieren Sie den Sicherheitsfilter. |