Risposta del modello che supporta più candidati.
Nota sulle classificazioni della sicurezza e sul filtro dei contenuti. Sono riportate sia per la richiesta in GenerateContentResponse.prompt_feedback
che per ogni candidato in finishReason
e in safetyRatings
. Il contratto relativo all'API è il seguente: - vengono restituiti tutti i candidati richiesti o nessun candidato - nessun candidato viene restituito solo se si è verificato un problema con la richiesta (vedi promptFeedback
). I feedback relativi a ogni candidato vengono segnalati in data finishReason
e safetyRatings
.
Rappresentazione JSON |
---|
{ "candidates": [ { object ( |
Campi | |
---|---|
candidates[] |
Risposte dei candidati del modello. |
promptFeedback |
Restituisce il feedback del prompt relativo ai filtri per i contenuti. |
usageMetadata |
Solo output. Metadati sull'utilizzo dei token delle richieste di generazione. |
PromptFeedback
Un insieme di metadati dei feedback specificati dal prompt in GenerateContentRequest.content
.
Rappresentazione JSON |
---|
{ "blockReason": enum ( |
Campi | |
---|---|
blockReason |
Campo facoltativo. Se impostato, la richiesta è stata bloccata e non vengono restituiti candidati. Riformula il prompt. |
safetyRatings[] |
Classificazioni per la sicurezza del prompt. Esiste al massimo una classificazione per categoria. |
BlockReason
Specifica il motivo per cui la richiesta è stata bloccata.
Enum | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Valore predefinito. Questo valore non è utilizzato. |
SAFETY |
Il prompt è stato bloccato per motivi di sicurezza. Puoi controllare safetyRatings per capire da quale categoria di sicurezza è stato bloccato. |
OTHER |
Il prompt è stato bloccato per motivi sconosciuti. |
UsageMetadata
Metadati sull'utilizzo dei token della richiesta di generazione.
Rappresentazione JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Campi | |
---|---|
promptTokenCount |
Numero di token nel prompt. Quando è impostata l'impostazione cacheContent, si tratta comunque delle dimensioni effettive totali del prompt. Questo include il numero di token nei contenuti memorizzati nella cache. |
cachedContentTokenCount |
Numero di token nella parte della richiesta memorizzata nella cache, ad esempio nei contenuti memorizzati nella cache. |
candidatesTokenCount |
Numero totale di token tra i candidati generati. |
totalTokenCount |
Conteggio totale dei token per la richiesta di generazione (prompt + candidati). |