Per una guida dettagliata sul conteggio dei token utilizzando l'API Gemini, incluso il modo in cui vengono conteggiate le immagini, l'audio e i video, consulta la guida al conteggio dei token e la relativa ricetta del ricettario.
Metodo: models.countTokens
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
- GenerateContentRequest
Esegue il tokenizzatore di un modello sull'input Content
e restituisce il numero di token. Per saperne di più sui token, consulta la guida ai token.
Endpoint
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
L'URL utilizza la sintassi di transcodifica gRPC.
Parametri del percorso
model
string
Obbligatorio. Il nome della risorsa del modello. che funge da ID per il modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
Deve avere il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
contents[]
object (Content
)
Facoltativo. L'input fornito al modello come prompt. Questo campo viene ignorato quando è impostato generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
Facoltativo. L'input complessivo fornito a Model
. Sono inclusi il prompt e altre informazioni di gestione del modello, come le istruzioni di sistema e/o le dichiarazioni di funzione per le chiamate di funzione. I Model
/Content
e i generateContentRequest
sono mutuamente esclusivi. Puoi inviare Model
+ Content
o generateContentRequest
, ma non entrambi.
Richiesta di esempio
Testo
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Contenuti multimediali in linea
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Vai
Conchiglia
Python
Cache
Python
Node.js
Vai
Istruzione di sistema
Python
Node.js
Vai
Kotlin
Swift
Dart
Java
Strumenti
Python
Node.js
Kotlin
Swift
Dart
Java
Corpo della risposta
Una risposta da models.countTokens
.
Restituisce il tokenCount
del modello per il prompt
.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
totalTokens
integer
Il numero di token in cui Model
tokenizza prompt
. Deve sempre essere non negativo.
cachedContentTokenCount
integer
Numero di token nella parte memorizzata nella cache del prompt (i contenuti memorizzati nella cache).
promptTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità elaborate nell'input della richiesta.
Rappresentazione JSON |
---|
{
"totalTokens": integer,
"cachedContentTokenCount": integer,
"promptTokensDetails": [
{
object ( |
GenerateContentRequest
Richiedi di generare un completamento dal modello.
model
string
Obbligatorio. Il nome del Model
da utilizzare per generare il completamento.
Formato: models/{model}
.
contents[]
object (Content
)
Obbligatorio. I contenuti della conversazione corrente con il modello.
Per le query con un solo tratto, si tratta di una singola istanza. Per le query con più turni, come chat, si tratta di un campo ripetuto che contiene la cronologia della conversazione e l'ultima richiesta.
tools[]
object (Tool
)
Facoltativo. Un elenco di Tools
che l'Model
potrebbe utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori della conoscenza e dell'ambito del Model
. I Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzioni ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
Facoltativo. Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la guida alle chiamate di funzioni.
safetySettings[]
object (SafetySetting
)
Facoltativo. Un elenco di istanze SafetySetting
univoche per bloccare i contenuti non sicuri.
Questa operazione verrà applicata a GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non deve essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se nell'elenco non è presente SafetySetting
per un determinato SafetyCategory
, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Le categorie di danno HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT, HARM_CATEGORY_CIVIC_INTEGRITY sono supportate. Per informazioni dettagliate sulle impostazioni di sicurezza disponibili, consulta la guida. Consulta anche le linee guida per la sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di IA.
systemInstruction
object (Content
)
Facoltativo. Lo Sviluppatore ha impostato istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
Facoltativo. Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
Facoltativo. Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per la pubblicazione della previsione. Formato: cachedContents/{cachedContent}
Rappresentazione JSON |
---|
{ "model": string, "contents": [ { object ( |