Szczegółowy przewodnik dotyczący zliczania tokenów za pomocą interfejsu Gemini API, w tym sposób zliczania obrazów, dźwięku i filmów, znajdziesz w przewodniku dotyczącym zliczania tokenów oraz dołączonym do niego przepisem z książki kucharskiej.
Metoda: models.countTokens
- Punkt końcowy
- Parametry ścieżki
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
- GenerateContentRequest
Używa tokenizera modelu do danych wejściowych Content
i zwraca liczbę tokenów. Więcej informacji o tokenach znajdziesz w przewodniku.
Punkt końcowy
posthttps://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Ta nazwa powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
contents[]
object (Content
)
Opcjonalnie: Dane wejściowe przekazywane do modelu w formie promptu. To pole jest ignorowane, gdy ustawiona jest wartość generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
Opcjonalnie: Ogólne dane wejściowe przekazane do Model
. Obejmuje to prompt, a także inne informacje kierujące modelem, takie jak instrukcje systemu lub deklaracje funkcji w przypadku wywołania funkcji. Wartości Model
s/Content
s i generateContentRequest
są wzajemnie wykluczające się. Możesz przesłać Model
+ Content
lub generateContentRequest
, ale nie obydwie te rzeczy.
Przykładowe żądanie
Treść odpowiedzi
Odpowiedź od models.countTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
totalTokens
integer
Liczba tokenów, na które Model
dzieli prompt
. Zawsze dodatnia.
cachedContentTokenCount
integer
Liczba tokenów w części prompta przechowywanej w pamięci podręcznej (zawartość w pamięci podręcznej).
promptTokensDetails[]
object (ModalityTokenCount
)
Tylko dane wyjściowe. Lista modalności przetworzonych w danych wejściowych
cacheTokensDetails[]
object (ModalityTokenCount
)
Tylko dane wyjściowe. Lista modalności przetworzonych w zawartości w pamięci podręcznej.
Zapis JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer, "promptTokensDetails": [ { object ( |
GenerateContentRequest
Wyślij żądanie wygenerowania wyniku przez model.
model
string
Wymagane. Nazwa Model
, która ma być użyta do wygenerowania zakończenia.
Format: models/{model}
.
tools[]
object (Tool
)
Opcjonalnie: Lista Tools
, których Model
może użyć do wygenerowania kolejnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań poza zakresem Model
. Obsługiwane wartości Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodniku po wywoływaniu funkcji i przewodniku po wykonywaniu kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych wystąpień SafetySetting
do blokowania niebezpiecznych treści.
Będzie to wymagane w przypadku znaczników GenerateContentRequest.contents
i GenerateContentResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API będzie blokować wszystkie treści i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Zapoznaj się też z wytycznymi dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacji wykorzystującej AI.
systemInstruction
object (Content
)
Opcjonalnie: Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modelu i wyjść.
cachedContent
string
Opcjonalnie: Nazwa treści przechowywanej w pamięci podręcznej, która ma służyć jako kontekst do wyświetlenia prognozy. Format: cachedContents/{cachedContent}
Zapis JSON |
---|
{ "model": string, "contents": [ { object ( |