Führt den Tokenizer eines Modells für den Eingabeinhalt aus und gibt die Tokenanzahl zurück.
HTTP-Anfrage
POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokens
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
Parameter | |
---|---|
model |
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell. Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode Format: |
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
JSON-Darstellung |
---|
{ "contents": [ { object ( |
Felder | |
---|---|
contents[] |
Optional. Die Eingabe, die dem Modell als Prompt gegeben wird. Dieses Feld wird ignoriert, wenn |
generateContentRequest |
Optional. Die Gesamteingabe für das Modell. „models.countTokens“ zählt Prompts, Funktionsaufrufe usw. |
Antworttext
Eine Antwort von models.countTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:
JSON-Darstellung |
---|
{ "totalTokens": integer } |
Felder | |
---|---|
totalTokens |
Die Anzahl der Tokens, in die der Immer positiv. Wenn „cacheContent“ festgelegt ist, ist dies immer noch die effektive Gesamtgröße des Prompts. Dies schließt die Anzahl der Tokens im Cache-Inhalt ein. |
Autorisierungsbereiche
Erfordert einen der folgenden OAuth-Bereiche:
https://www.googleapis.com/auth/generative-language
https://www.googleapis.com/auth/generative-language.tuning
https://www.googleapis.com/auth/generative-language.tuning.readonly
https://www.googleapis.com/auth/generative-language.retriever
https://www.googleapis.com/auth/generative-language.retriever.readonly
Weitere Informationen finden Sie in der Authentifizierungsübersicht.
GenerateContentRequest
Anfrage zum Generieren einer Vervollständigung aus dem Modell.
JSON-Darstellung |
---|
{ "model": string, "contents": [ { object ( |
Felder | |
---|---|
model |
Erforderlich. Der Name des Format: |
contents[] |
Erforderlich. Der Inhalt der aktuellen Unterhaltung mit dem Modell. Bei Einzelabfragen ist dies eine einzelne Instanz. Bei Abfragen mit mehreren Antworten ist dies ein wiederkehrendes Feld, das den Unterhaltungsverlauf und die letzte Anfrage enthält. |
tools[] |
Optional. Eine Liste von Eine |
toolConfig |
Optional. Toolkonfiguration für eine in der Anfrage angegebene |
safetySettings[] |
Optional. Eine Liste einzelner Dies wird am |
systemInstruction |
Optional. Systemanweisung für Entwicklersatz. Derzeit nur Text. |
generationConfig |
Optional. Konfigurationsoptionen für Modellgenerierung und -ausgaben. |
cachedContent |
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Vorhersage verwendet wird. Hinweis: Wird nur beim expliziten Caching verwendet, bei dem die Nutzer die Kontrolle über das Caching haben (z.B. welche Inhalte im Cache gespeichert werden sollen) und bei denen die Kosten eingespart werden können. Format: |