Szczegółowy przewodnik po liczeniu tokenów przy użyciu interfejsu Gemini API (w tym o sposobie zliczania obrazów, dźwięku i filmów) znajdziesz w przewodniku po liczeniu tokenów oraz w powiązanym z nim przepisie w Książce kucharskiej.
Metoda: Modele.countTokens
- Punkt końcowy
- Parametry ścieżki
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
- GenerateContentRequest
Używa tokenizera modelu do danych wejściowych Content
i zwraca liczbę tokenów. Więcej informacji o tokenach znajdziesz w przewodniku na ich temat.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokensParametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
contents[]
object (Content
)
Opcjonalnie: Dane wejściowe podane modelowi w postaci promptu. To pole jest ignorowane po ustawieniu pola generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
Opcjonalnie: Ogólne dane wejściowe przekazane do Model
. Obejmuje to prompt, a także inne informacje związane ze sterowaniem modelem, takie jak instrukcje systemowe lub deklaracje funkcji dotyczące wywoływania funkcji. Elementy Model
/Content
i generateContentRequest
wzajemnie się wykluczają. Możesz wysłać Model
+ Content
lub generateContentRequest
, ale nie obydwie te rzeczy.
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Czat
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Multimedia w treści
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Wideo
Python
Node.js
Przeczytaj
Pudrowy róż
Python
Cache (Pamięć podręczna)
Python
Node.js
Przeczytaj
Instrukcja systemowa
Python
Node.js
Przeczytaj
Kotlin
Swift
Dart
Java
Narzędzia
Python
Node.js
Kotlin
Swift
Dart
Java
Treść odpowiedzi
Odpowiedź od użytkownika models.countTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
totalTokens
integer
Liczba tokenów, do których Model
tokenizuje token prompt
. Zawsze nieujemna.
cachedContentTokenCount
integer
Liczba tokenów w części prompta przechowywanej w pamięci podręcznej (zawartość w pamięci podręcznej).
Zapis JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer } |
GenerateContentRequest
Wyślij żądanie wygenerowania wyniku przez model.
model
string
Wymagane. Nazwa Model
, której należy użyć do wygenerowania zakończenia.
Format: name=models/{model}
.
tools[]
object (Tool
)
Opcjonalnie: Lista właściwości Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań poza wiedzą i zakresem Model
. Obsługiwane wartości Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodnikach dotyczących wywoływania funkcji i wykonania kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnych Tool
określonych w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
Ta zmiana będzie egzekwowana w systemach GenerateContentRequest.contents
i GenerateContentResponse.candidates
. Każdy typ SafetyCategory
powinien mieć maksymalnie 1 ustawienie. Interfejs API będzie blokować wszystkie treści i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT są obsługiwane. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Zapoznaj się też z wskazówkami dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacji wykorzystującej AI.
systemInstruction
object (Content
)
Opcjonalnie: Programista skonfigurował instrukcje systemowe. Obecnie tylko tekstowe.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modelu i wyjść.
cachedContent
string
Opcjonalnie: Nazwa treści przechowywanych w pamięci podręcznej, które mają służyć jako kontekst do wyświetlenia prognozy. Format: cachedContents/{cachedContent}
Zapis JSON |
---|
{ "model": string, "contents": [ { object ( |