GenerateContentResponse

Respuesta del modelo que admite varios candidatos.

Nota sobre las clasificaciones de seguridad y los filtros de contenido. Se informan para la instrucción en GenerateContentResponse.prompt_feedback y para cada candidato en finishReason y en safetyRatings. El contrato de la API es el siguiente: - Se muestran todos los candidatos solicitados o ninguno - no se muestra ningún candidato solo si hubo algún problema con la instrucción (consulta promptFeedback) - Los comentarios sobre cada candidato se informan en finishReason y safetyRatings

Representación JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
Campos
candidates[]

object (Candidate)

Respuestas de los candidatos del modelo.

promptFeedback

object (PromptFeedback)

Muestra los comentarios de la instrucción relacionados con los filtros de contenido.

usageMetadata

object (UsageMetadata)

Solo salida. Metadatos sobre el uso del token de las solicitudes de generación.

PromptFeedback

Un conjunto de metadatos de comentarios que la instrucción especificó en GenerateContentRequest.content.

Representación JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Campos
blockReason

enum (BlockReason)

Opcional. Si se establece, se bloqueó el mensaje y no se muestran candidatos. Reformula tu instrucción.

safetyRatings[]

object (SafetyRating)

Calificaciones de seguridad de la instrucción. Existe, como máximo, una calificación por categoría.

BlockReason

Especifica el motivo por el que se bloqueó la instrucción.

Enumeradores
BLOCK_REASON_UNSPECIFIED Valor predeterminado Este valor no se usa.
SAFETY Se bloqueó el mensaje por razones de seguridad. Puedes inspeccionar safetyRatings para comprender qué categoría de seguridad lo bloqueó.
OTHER Se bloqueó el mensaje debido a motivos desconocidos.

UsageMetadata

Metadatos sobre el uso del token de la solicitud de generación.

Representación JSON
{
  "promptTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
Campos
promptTokenCount

integer

Cantidad de tokens en el mensaje.

candidatesTokenCount

integer

Cantidad total de tokens entre los candidatos generados.

totalTokenCount

integer

Recuento total de tokens para la solicitud de generación (mensaje + candidatos).