Führt den Tokenizer eines Modells für den Eingabeinhalt aus und gibt die Tokenanzahl zurück.
HTTP-Anfrage
POST https://generativelanguage.googleapis.com/v1/{model=models/*}:countTokens
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
Parameter | |
---|---|
model |
Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell. Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode Format: |
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
JSON-Darstellung |
---|
{ "contents": [ { object ( |
Felder | |
---|---|
contents[] |
Optional. Die Eingabe, die dem Modell als Prompt gegeben wird. Dieses Feld wird ignoriert, wenn |
generateContentRequest |
Optional. Die Gesamteingabe für das Modell. „models.countTokens“ zählt Prompts, Funktionsaufrufe usw. |
Antworttext
Eine Antwort von models.countTokens
.
Sie gibt den tokenCount
des Modells für den prompt
zurück.
Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:
JSON-Darstellung |
---|
{ "totalTokens": integer } |
Felder | |
---|---|
totalTokens |
Die Anzahl der Tokens, in die der Immer positiv. Wenn „cacheContent“ festgelegt ist, ist dies immer noch die effektive Gesamtgröße des Prompts. Dies schließt die Anzahl der Tokens im Cache-Inhalt ein. |
Autorisierungsbereiche
Erfordert einen der folgenden OAuth-Bereiche:
https://www.googleapis.com/auth/generative-language
https://www.googleapis.com/auth/generative-language.tuning
https://www.googleapis.com/auth/generative-language.tuning.readonly
https://www.googleapis.com/auth/generative-language.retriever
https://www.googleapis.com/auth/generative-language.retriever.readonly
Weitere Informationen finden Sie in der Authentifizierungsübersicht.
GenerateContentRequest
Anfrage zum Generieren einer Vervollständigung aus dem Modell.
JSON-Darstellung |
---|
{ "model": string, "contents": [ { object ( |
Felder | |
---|---|
model |
Erforderlich. Der Name des Format: |
contents[] |
Erforderlich. Der Inhalt der aktuellen Unterhaltung mit dem Modell. Bei Einzelabfragen ist dies eine einzelne Instanz. Bei Abfragen mit mehreren Antworten ist dies ein wiederkehrendes Feld, das den Unterhaltungsverlauf und die letzte Anfrage enthält. |
safetySettings[] |
Optional. Eine Liste einzelner Dies wird am |
generationConfig |
Optional. Konfigurationsoptionen für Modellgenerierung und -ausgaben. |