Eine ausführliche Anleitung zum Zählen von Tokens mit der Gemini API, z. B. wie Bilder, Audio- und Videoinhalte gezählt werden, finden Sie im Leitfaden zum Zählen von Tokens und im zugehörigen Kochbuchrezept.
Methode: models.countTokens
- Endpunkt
- Pfadparameter
- Anfragetext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Antworttext
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
- Autorisierungsbereiche
- Beispielanfrage <ph type="x-smartling-placeholder">
- GenerateContentRequest
<ph type="x-smartling-placeholder">
- </ph>
- JSON-Darstellung
Führt den Tokenizer eines Modells für die Eingabe Content
aus und gibt die Tokenanzahl zurück. Weitere Informationen zu Tokens finden Sie in der Anleitung zu Tokens.
Endpunkt
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> Beitrag
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokens
.
Pfadparameter
model
string
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.
Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list
zurückgegeben wird.
Format: models/{model}
. Das Format hat das Format models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
<ph type="x-smartling-placeholder">contents[]
object (Content
)
Optional. Die Eingabe, die dem Modell als Prompt gegeben wird. Dieses Feld wird ignoriert, wenn generateContentRequest
festgelegt ist.
generateContentRequest
object (GenerateContentRequest
)
Optional. Die Gesamteingabe für Model
. Dazu gehören der Prompt sowie andere Modellsteuerungsinformationen wie Systemanweisungen und/oder Funktionsdeklarationen für Funktionsaufrufe. Model
s/Content
s und generateContentRequest
s schließen sich gegenseitig aus. Sie können entweder Model
+ Content
oder eine generateContentRequest
senden, aber nie beides.
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Inline-Medien
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Ok
Muschel
Python
Cache
Python
Node.js
Ok
Systemanweisung
Python
Node.js
Ok
Kotlin
Swift
Dart
Java
Tools
Python
Node.js
Kotlin
Swift
Dart
Java
Antworttext
Eine Antwort von models.countTokens
.
Sie gibt den tokenCount
des Modells für prompt
zurück.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
totalTokens
integer
Die Anzahl der Tokens, in die der Model
die prompt
tokenisiert. Immer positiv.
JSON-Darstellung |
---|
{ "totalTokens": integer } |
GenerateContentRequest
Anfrage zum Generieren einer Vervollständigung aus dem Modell.
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: name=models/{model}
.
contents[]
object (Content
)
Erforderlich. Der Inhalt der aktuellen Unterhaltung mit dem Modell.
Bei Einzelabfragen ist dies eine einzelne Instanz. Bei Abfragen mit mehreren Antworten wie chat ist dies ein wiederkehrendes Feld, das den Unterhaltungsverlauf und die letzte Anfrage enthält.
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
verwenden kann, um die nächste Antwort zu generieren.
Eine Tool
ist ein Code-Snippet, das dem System die Interaktion mit externen Systemen ermöglicht, um eine Aktion oder eine Reihe von Aktionen auszuführen, die außerhalb des Wissens und des Umfangs der Model
liegen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie unter Funktionsaufrufe und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für eine in der Anfrage angegebene Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste einzelner SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
Dies wird am GenerateContentRequest.contents
und GenerateContentResponse.candidates
erzwungen. Es darf nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ vorhanden sein. Die API blockiert alle Inhalte und Antworten, die die in diesen Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jeden in „safetySettings“ festgelegten SafetyCategory
. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die standardmäßige Sicherheitseinstellung für diese Kategorie. Die schädlichen Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT und HARM_CATEGORY_HARASSMENT werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen findest du im Leitfaden. In den Sicherheitshinweisen erfahren Sie, wie Sie Sicherheitsaspekte in Ihren KI-Anwendungen berücksichtigen können.
systemInstruction
object (Content
)
Optional. Vom Entwickler festgelegte Systemanweisung(en). Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
JSON-Darstellung |
---|
{ "model": string, "contents": [ { object ( |