Eine ausführliche Anleitung zum Zählen von Tokens mit der Gemini API, einschließlich der Zählung von Bildern, Audio und Video, findest du im Leitfaden zum Zählen von Tokens und im zugehörigen Rezept aus dem Rezeptbuch.
Methode: models.countTokens
- Endpunkt
- Pfadparameter
- Anfragetext
- Antworttext
- Autorisierungsbereiche
- Beispielanfrage
- GenerateContentRequest
Führt den Tokenisierer eines Modells auf der Eingabe Content
aus und gibt die Tokenanzahl zurück. Weitere Informationen zu Tokens finden Sie im Leitfaden zu Tokens.
Endpunkt
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokensPfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Diese dient als ID für das Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Sie hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
contents[]
object (Content
)
Optional. Die Eingabe, die dem Modell als Prompt gegeben wird. Dieses Feld wird ignoriert, wenn generateContentRequest
festgelegt ist.
generateContentRequest
object (GenerateContentRequest
)
Optional. Die Gesamteingabe für Model
. Dazu gehören der Prompt sowie andere Modellsteuerungsinformationen wie Systemanweisungen und/oder Funktionsdeklarationen für Funktionsaufrufe. Model
s/Content
s und generateContentRequest
s schließen sich gegenseitig aus. Sie können entweder Model
+ Content
oder eine generateContentRequest
senden, aber nie beides.
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Inline-Medien
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Ok
Muschel
Python
Cache
Python
Node.js
Ok
Systemanweisung
Python
Node.js
Ok
Kotlin
Swift
Dart
Java
Tools
Python
Node.js
Kotlin
Swift
Dart
Java
Antworttext
Eine Antwort von models.countTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
totalTokens
integer
Die Anzahl der Tokens, in die der Model
die prompt
tokenisiert. Muss immer positiv sein.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (im Cache gespeicherte Inhalte).
JSON-Darstellung |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer } |
GenerateContentRequest
Generierung einer Vervollständigung aus dem Modell anfordern
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: name=models/{model}
.
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie unter Funktionsaufrufe und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für eine in der Anfrage angegebene Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies wird am GenerateContentRequest.contents
und GenerateContentResponse.candidates
erzwungen. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ vorhanden sein. Die API blockiert alle Inhalte und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die schädlichen Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen findest du im Leitfaden. In den Sicherheitshinweisen erfahren Sie, wie Sie Sicherheitsaspekte in Ihren KI-Anwendungen berücksichtigen können.
systemInstruction
object (Content
)
Optional. Vom Entwickler festgelegte Systemanweisung(en). Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
JSON-Darstellung |
---|
{ "model": string, "contents": [ { object ( |