Para conferir um guia detalhado sobre como contar tokens usando a API Gemini, incluindo como imagens, áudio e vídeo são contados, consulte o guia de contagem de tokens e a receita do livro de receitas.
Método: models.countTokens
- Endpoint
- Parâmetros de caminho
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
- GenerateContentRequest
Executa o tokenizador de um modelo na entrada Content
e retorna a contagem de tokens. Consulte o guia de tokens para saber mais.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokensParâmetros de caminho
model
string
Obrigatório. O nome do recurso do modelo. Ele serve como um ID para o modelo usar.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
contents[]
object (Content
)
Opcional. A entrada fornecida ao modelo como um comando. Este campo é ignorado quando generateContentRequest
é definido.
generateContentRequest
object (GenerateContentRequest
)
Opcional. A entrada geral dada ao Model
. Isso inclui o comando e outras informações de orientação do modelo, como instruções do sistema e/ou declarações de função para chamadas de função. Model
s/Content
s e generateContentRequest
s são mutuamente exclusivos. Você pode enviar Model
+ Content
s ou generateContentRequest
, mas nunca os dois.
Exemplo de solicitação
Texto
Python
Node.js
Go
Concha
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Go
Concha
Kotlin
Swift
Dart
Java
Mídia inline
Python
Node.js
Go
Concha
Kotlin
Swift
Dart
Java
Vídeo
Python
Node.js
Go
Concha
Python
Cache
Python
Node.js
Go
Instrução do sistema
Python
Node.js
Go
Kotlin
Swift
Dart
Java
Ferramentas
Python
Node.js
Kotlin
Swift
Dart
Java
Corpo da resposta
Uma resposta de models.countTokens
.
Ele retorna a tokenCount
do modelo para o prompt
.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
totalTokens
integer
O número de tokens em que Model
tokeniza o prompt
. Sempre não negativo.
cachedContentTokenCount
integer
Número de tokens na parte armazenada em cache do comando (o conteúdo armazenado em cache).
Representação JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer } |
GenerateContentRequest
Solicitação para gerar uma conclusão do modelo.
model
string
Obrigatório. O nome do Model
a ser usado para gerar a conclusão.
Formato: name=models/{model}
.
tools[]
object (Tool
)
Opcional. Uma lista de Tools
que a Model
pode usar para gerar a próxima resposta.
Um Tool
é um trecho de código que permite ao sistema interagir com sistemas externos para realizar uma ação, ou conjunto de ações, fora do conhecimento e do escopo da Model
. Os Tool
s aceitos são Function
e codeExecution
. Consulte os guias Chamada de função e Execução de código para saber mais.
toolConfig
object (ToolConfig
)
Opcional. Configuração da ferramenta para qualquer Tool
especificado na solicitação. Consulte o guia de chamada de função para conferir um exemplo de uso.
safetySettings[]
object (SafetySetting
)
Opcional. Uma lista de instâncias SafetySetting
exclusivas para bloquear conteúdo não seguro.
Isso será aplicado em GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Não pode haver mais de uma configuração para cada tipo de SafetyCategory
. A API vai bloquear todos os conteúdos e respostas que não atingirem os limites definidos por essas configurações. Essa lista substitui as configurações padrão de cada SafetyCategory
especificada em safetySettings. Se não houver SafetySetting
para um determinado SafetyCategory
fornecido na lista, a API vai usar a configuração de segurança padrão para essa categoria. As categorias de dano HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT e HARM_CATEGORY_HARASSMENT são compatíveis. Consulte o guia para informações detalhadas sobre as configurações de segurança disponíveis. Consulte também as Diretrizes de segurança para saber como incorporar considerações de segurança aos seus aplicativos de IA.
systemInstruction
object (Content
)
Opcional. Instruções do sistema definidas pelo desenvolvedor. No momento, apenas texto.
generationConfig
object (GenerationConfig
)
Opcional. Opções de configuração para geração de modelos e saídas.
cachedContent
string
Opcional. O nome do conteúdo armazenado em cache para usar como contexto e disponibilizar a previsão. Formato: cachedContents/{cachedContent}
Representação JSON |
---|
{ "model": string, "contents": [ { object ( |