Para um guia detalhado sobre como contar tokens usando a API Gemini, incluindo como imagens, áudio e vídeo são contados, consulte o Guia de contagem de tokens e a Receita do livro de receitas.
Método: models.countTokens
- Endpoint
- Parâmetros de caminho
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
Executa o tokenizador de um modelo na entrada Content
e retorna a contagem de tokens. Consulte o guia de tokens para saber mais.
Endpoint
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
Parâmetros de caminho
model
string
Obrigatório. O nome do recurso do modelo. Ele serve como um ID para o modelo usar.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
. Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
contents[]
object (Content
)
Opcional. A entrada fornecida ao modelo como um comando. Esse campo é ignorado quando generateContentRequest
é definido.
generateContentRequest
object (GenerateContentRequest
)
Opcional. A entrada geral fornecida ao Model
. Isso inclui o comando e outras informações de direcionamento do modelo, como instruções do sistema e/ou declarações de função para chamada de função. Model
s/Content
s e generateContentRequest
s são mutuamente exclusivos. Você pode enviar Model
+ Content
s ou um generateContentRequest
, mas nunca ambos.
Exemplo de solicitação
Texto
Python
Node.js
Go
Concha
Chat
Python
Node.js
Go
Concha
Mídia inline
Python
Node.js
Go
Concha
Vídeo
Python
Node.js
Go
Concha
Python
Cache
Python
Node.js
Go
Instrução do sistema
Go
Ferramentas
Java
Corpo da resposta
Uma resposta de models.countTokens
.
Ele retorna o tokenCount
do modelo para o prompt
.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
totalTokens
integer
O número de tokens que o Model
tokeniza o prompt
. Sempre não negativo.
cachedContentTokenCount
integer
Número de tokens na parte armazenada em cache do comando (o conteúdo armazenado em cache).
promptTokensDetails[]
object (ModalityTokenCount
)
Apenas saída. Lista de modalidades processadas na entrada da solicitação.
cacheTokensDetails[]
object (ModalityTokenCount
)
Apenas saída. Lista de modalidades processadas no conteúdo em cache.
Representação JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer, "promptTokensDetails": [ { object ( |