Per una guida dettagliata sul conteggio dei token utilizzando l'API Gemini, incluso il modo in cui vengono conteggiati immagini, audio e video, consulta la Guida al conteggio dei token e l'apposita ricetta di Cookbook.
Metodo: models.countTokens
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
- GenerateContentRequest
Esegue il tokenizzatore di un modello sull'input Content
e restituisce il conteggio dei token. Per saperne di più sui token, consulta la guida ai token.
Endpoint
pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokensParametri del percorso
model
string
Obbligatorio. Il nome della risorsa del modello. che funge da ID per il modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
Deve avere il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
contents[]
object (Content
)
(Facoltativo) L'input fornito al modello come prompt. Questo campo viene ignorato quando è impostato generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
(Facoltativo) L'input complessivo fornito a Model
. Sono inclusi il prompt e altre informazioni di gestione del modello, come le istruzioni di sistema e/o le dichiarazioni di funzione per le chiamate di funzione. I Model
/Content
e i generateContentRequest
sono mutuamente esclusivi. Puoi inviare Model
+ Content
o un generateContentRequest
, ma mai entrambi.
Richiesta di esempio
Testo
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Contenuti multimediali incorporati
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Vai
Conchiglia
Python
Cache
Python
Node.js
Vai
Istruzione di sistema
Python
Node.js
Vai
Kotlin
Swift
Dart
Java
Strumenti
Python
Node.js
Kotlin
Swift
Dart
Java
Corpo della risposta
Una risposta da models.countTokens
.
Restituisce il tokenCount
del modello per il prompt
.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
totalTokens
integer
Il numero di token in cui Model
tokenizza prompt
. Deve sempre essere non negativo.
cachedContentTokenCount
integer
Numero di token nella parte memorizzata nella cache del prompt (i contenuti memorizzati nella cache).
Rappresentazione JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer } |
GenerateContentRequest
Richiedi di generare un completamento dal modello.
model
string
Obbligatorio. Il nome del Model
da utilizzare per generare il completamento.
Formato: name=models/{model}
.
contents[]
object (Content
)
Obbligatorio. I contenuti della conversazione corrente con il modello.
Per le query con un solo tratto, si tratta di una singola istanza. Per le query in più passaggi come la chat, si tratta di un campo ripetuto che contiene la cronologia della conversazione e l'ultima richiesta.
tools[]
object (Tool
)
(Facoltativo) Un elenco di Tools
che l'Model
potrebbe utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori della conoscenza e dell'ambito del Model
. I valori di tipo Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzione ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
(Facoltativo) Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la Guida alle chiamate di funzioni.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
univoche per il blocco di contenuti non sicuri.
Questa norma verrà applicata in modo forzato a GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non rispetteranno le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se non è presente alcun valore SafetySetting
per un determinato SafetyCategory
nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Sono supportate le categorie di danni HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT e HARM_CATEGORY_HARASSMENT. Consulta la guida per informazioni dettagliate sulle impostazioni di sicurezza disponibili. Consulta anche le linee guida per la sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di IA.
systemInstruction
object (Content
)
(Facoltativo) Lo sviluppatore ha impostato le istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
(Facoltativo) Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
(Facoltativo) Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per la pubblicazione della previsione. Formato: cachedContents/{cachedContent}
Rappresentazione JSON |
---|
{ "model": string, "contents": [ { object ( |