GenerateContentResponse

Risposta del modello che supporta più candidati.

Nota sulle classificazioni della sicurezza e sul filtro dei contenuti. Sono riportate sia per la richiesta in GenerateContentResponse.prompt_feedback che per ogni candidato in finishReason e in safetyRatings. Il contratto relativo all'API è il seguente: - vengono restituiti tutti i candidati richiesti o nessun candidato - nessun candidato viene restituito solo se si è verificato un problema con la richiesta (vedi promptFeedback). I feedback relativi a ogni candidato vengono segnalati in data finishReason e safetyRatings.

Rappresentazione JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
Campi
candidates[]

object (Candidate)

Risposte dei candidati del modello.

promptFeedback

object (PromptFeedback)

Restituisce il feedback del prompt relativo ai filtri per i contenuti.

usageMetadata

object (UsageMetadata)

Solo output. Metadati sull'utilizzo dei token delle richieste di generazione.

PromptFeedback

Un insieme di metadati dei feedback specificati dal prompt in GenerateContentRequest.content.

Rappresentazione JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Campi
blockReason

enum (BlockReason)

Campo facoltativo. Se impostato, la richiesta è stata bloccata e non vengono restituiti candidati. Riformula il prompt.

safetyRatings[]

object (SafetyRating)

Classificazioni per la sicurezza del prompt. Esiste al massimo una classificazione per categoria.

BlockReason

Specifica il motivo per cui la richiesta è stata bloccata.

Enum
BLOCK_REASON_UNSPECIFIED Valore predefinito. Questo valore non è utilizzato.
SAFETY Il prompt è stato bloccato per motivi di sicurezza. Puoi controllare safetyRatings per capire da quale categoria di sicurezza è stato bloccato.
OTHER Il prompt è stato bloccato per motivi sconosciuti.

UsageMetadata

Metadati sull'utilizzo dei token della richiesta di generazione.

Rappresentazione JSON
{
  "promptTokenCount": integer,
  "cachedContentTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
Campi
promptTokenCount

integer

Numero di token nel prompt. Quando è impostata l'impostazione cacheContent, si tratta comunque delle dimensioni effettive totali del prompt. Questo include il numero di token nei contenuti memorizzati nella cache.

cachedContentTokenCount

integer

Numero di token nella parte della richiesta memorizzata nella cache, ad esempio nei contenuti memorizzati nella cache.

candidatesTokenCount

integer

Numero totale di token tra i candidati generati.

totalTokenCount

integer

Conteggio totale dei token per la richiesta di generazione (prompt + candidati).