Szczegółowy przewodnik dotyczący zliczania tokenów za pomocą interfejsu Gemini API, w tym sposób zliczania obrazów, dźwięku i filmów, znajdziesz w przewodniku dotyczącym zliczania tokenów oraz dołączonym do niego przepisem z książki kucharskiej.
Metoda: models.countTokens
- Punkt końcowy
- Parametry ścieżki
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
- GenerateContentRequest
Używa tokenizera modelu do danych wejściowych Content
i zwraca liczbę tokenów. Więcej informacji o tokenach znajdziesz w przewodniku.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
model
string
Wymagany. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
contents[]
object (Content
)
Opcjonalnie: Dane wejściowe przekazywane do modelu w formie promptu. To pole jest ignorowane, gdy ustawiona jest wartość generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
Opcjonalnie: Ogólne dane wejściowe przekazane do Model
. Obejmuje to prompt, a także inne informacje kierujące modelem, takie jak instrukcje systemu lub deklaracje funkcji w przypadku wywołania funkcji. Wartości Model
s/Content
s i generateContentRequest
s są wzajemnie wykluczające się. Możesz przesłać Model
+ Content
lub generateContentRequest
, ale nie obydwie te rzeczy.
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Czat
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Multimedia wbudowane
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Wideo
Python
Node.js
Przeczytaj
Muszla
Python
Cache (Pamięć podręczna)
Python
Node.js
Przeczytaj
Instrukcja systemowa
Python
Node.js
Przeczytaj
Kotlin
Swift
Dart
Java
Narzędzia
Python
Node.js
Kotlin
Swift
Dart
Java
Treść odpowiedzi
Odpowiedź od models.countTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
totalTokens
integer
Liczba tokenów, na które Model
dzieli dane prompt
. Zawsze dodatnia.
cachedContentTokenCount
integer
Liczba tokenów w części prompta, która jest przechowywana w pamięci podręcznej (zawartość w pamięci podręcznej).
promptTokensDetails[]
object (ModalityTokenCount
)
Tylko dane wyjściowe. Lista modalności przetworzonych w danych wejściowych
Zapis JSON |
---|
{
"totalTokens": integer,
"cachedContentTokenCount": integer,
"promptTokensDetails": [
{
object ( |
GenerateContentRequest
Wyślij żądanie wygenerowania wyniku przez model.
model
string
Wymagany. Nazwa Model
, która ma być użyta do wygenerowania zakończenia.
Format: models/{model}
.
tools[]
object (Tool
)
Opcjonalnie: Lista Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań poza wiedzą i zakresem Model
. Obsługiwane wartości Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodniku po wywoływaniu funkcji i przewodniku po wykonywaniu kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych wystąpień SafetySetting
do blokowania niebezpiecznych treści.
Będzie to wymagane w przypadku znaczników GenerateContentRequest.contents
i GenerateContentResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API będzie blokować wszystkie treści i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach zabezpieczeń znajdziesz w przewodniku. Zapoznaj się też ze wskazówkami dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacji wykorzystującej AI.
systemInstruction
object (Content
)
Opcjonalnie: Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modelu i wyjść.
cachedContent
string
Opcjonalnie: Nazwa treści przechowywanej w pamięci podręcznej, która ma służyć jako kontekst do wyświetlenia prognozy. Format: cachedContents/{cachedContent}
Zapis JSON |
---|
{ "model": string, "contents": [ { object ( |