Eine detaillierte Anleitung zum Zählen von Tokens mit der Gemini API, einschließlich der Zählung von Bildern, Audio und Video, findest du im Leitfaden zum Zählen von Tokens und im zugehörigen Rezept aus dem Rezeptbuch.
Methode: models.countTokens
- Endpunkt
- Pfadparameter
- Anfragetext
- Antworttext
- Autorisierungsbereiche
- Beispielanfrage
- GenerateContentRequest
Führt den Tokenisierer eines Modells auf der Eingabe Content
aus und gibt die Tokenanzahl zurück. Weitere Informationen zu Tokens finden Sie im Leitfaden zu Tokens.
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Diese dient als ID für das Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Muss die Form models/{model}
haben.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
contents[]
object (Content
)
Optional. Die Eingabe, die dem Modell als Prompt gegeben wird. Dieses Feld wird ignoriert, wenn generateContentRequest
festgelegt ist.
generateContentRequest
object (GenerateContentRequest
)
Optional. Die Gesamteingabe für die Model
. Dazu gehören der Prompt sowie andere Informationen zur Modellsteuerung wie Systemanweisungen und/oder Funktionsdeklarationen für den Funktionsaufruf. Model
/Content
und generateContentRequest
schließen sich gegenseitig aus. Sie können entweder Model
+ Content
oder generateContentRequest
senden, aber nicht beides.
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Inline-Medien
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Ok
Muschel
Python
Cache
Python
Node.js
Ok
Systemanweisung
Python
Node.js
Ok
Kotlin
Swift
Dart
Java
Tools
Python
Node.js
Kotlin
Swift
Dart
Java
Antworttext
Eine Antwort von models.countTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
totalTokens
integer
Die Anzahl der Tokens, in die Model
die prompt
tokenisiert. Muss immer positiv sein.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (im Cache gespeicherte Inhalte).
JSON-Darstellung |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer } |
GenerateContentRequest
Generierung einer Vervollständigung aus dem Modell anfordern
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: models/{model}
.
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste eindeutiger SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
JSON-Darstellung |
---|
{ "model": string, "contents": [ { object ( |