GenerateContentResponse

Respuesta del modelo que admite a varios candidatos.

Nota sobre las clasificaciones de seguridad y el filtro de contenido. Se informan para las instrucciones en GenerateContentResponse.prompt_feedback y para cada candidato en finishReason y safetyRatings. El contrato de la API establece lo siguiente: - Se muestran todos los candidatos solicitados o no se devuelve ninguno - No se devuelven candidatos solo si hay algún problema con la instrucción (consulta promptFeedback); los comentarios sobre cada candidato se informan el finishReason y el safetyRatings.

Representación JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
Campos
candidates[]

object (Candidate)

Respuestas de los candidatos del modelo.

promptFeedback

object (PromptFeedback)

Devuelve los comentarios de la instrucción relacionados con los filtros de contenido.

usageMetadata

object (UsageMetadata)

Solo salida. Metadatos sobre el uso de tokens de las solicitudes de generación.

Candidato

Un candidato de respuesta generado a partir del modelo.

Representación JSON
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "index": integer
}
Campos
content

object (Content)

Solo salida. Contenido generado que muestra el modelo.

finishReason

enum (FinishReason)

Opcional. Solo salida. El motivo por el que el modelo dejó de generar tokens.

Si está vacío, el modelo no dejó de generar los tokens.

safetyRatings[]

object (SafetyRating)

Lista de calificaciones para la seguridad de un candidato de respuesta.

Hay, como máximo, una calificación por categoría.

citationMetadata

object (CitationMetadata)

Solo salida. Información de citas para el candidato generado por el modelo.

Este campo puede completarse con información de lectura de cualquier texto incluido en content. Estos son pasajes que se “recitan” a partir de material protegido por derechos de autor en los datos de entrenamiento fundamentales del LLM.

tokenCount

integer

Solo salida. Recuento de tokens de este candidato.

index

integer

Solo salida. Índice del candidato en la lista de candidatos.

FinishReason

Define el motivo por el que el modelo dejó de generar tokens.

Enumeradores
FINISH_REASON_UNSPECIFIED Valor predeterminado Este valor no se usa.
STOP Punto de parada natural del modelo o secuencia de paradas proporcionada.
MAX_TOKENS Se alcanzó la cantidad máxima de tokens especificada en la solicitud.
SAFETY El contenido del candidato se marcó por motivos de seguridad.
RECITATION Se marcó el contenido del candidato por motivos de lectura.
OTHER Motivo desconocido.

SafetyRating

Calificación de seguridad de un contenido.

La clasificación de seguridad contiene la categoría de daño y el nivel de probabilidad de daño en esa categoría para un contenido. El contenido se clasifica por seguridad en varias categorías de daños, y aquí se incluye la probabilidad de la clasificación del daño.

Representación JSON
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}
Campos
category

enum (HarmCategory)

Obligatorio. La categoría de esta calificación.

probability

enum (HarmProbability)

Obligatorio. La probabilidad de daño de este contenido.

blocked

boolean

¿Se bloqueó el contenido debido a esta clasificación?

HarmProbability

Es la probabilidad de que un contenido sea dañino.

El sistema de clasificación da la probabilidad de que el contenido no sea seguro. Esto no indica la gravedad del daño para un contenido.

Enumeradores
HARM_PROBABILITY_UNSPECIFIED Probabilidad no especificada.
NEGLIGIBLE Las probabilidades de que el contenido no sean seguras son mínimas.
LOW Hay pocas probabilidades de que el contenido sea inseguro.
MEDIUM Tiene una probabilidad media de ser inseguro.
HIGH Hay muchas probabilidades de que el contenido no sea seguro.

CitationMetadata

Es una colección de atribuciones de fuente para un contenido.

Representación JSON
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}
Campos
citationSources[]

object (CitationSource)

Citas a las fuentes para una respuesta específica.

CitationSource

Una cita a una fuente por una parte de una respuesta específica.

Representación JSON
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}
Campos
startIndex

integer

Opcional. Inicio del segmento de la respuesta que se atribuye a esta fuente.

El índice indica el inicio del segmento, medido en bytes.

endIndex

integer

Opcional. Final del segmento atribuido (exclusivo).

uri

string

Opcional. Es un URI que se atribuye como fuente para una parte del texto.

license

string

Opcional. Licencia del proyecto de GitHub que se atribuye como fuente del segmento.

Se requiere información de la licencia para las citas de códigos.

PromptFeedback

Un conjunto de metadatos de comentarios que se especificó en la instrucción en GenerateContentRequest.content

Representación JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Campos
blockReason

enum (BlockReason)

Opcional. Si se configura, se bloqueó el mensaje y no se muestran candidatos. Reformula tu instrucción.

safetyRatings[]

object (SafetyRating)

Calificaciones de seguridad de la instrucción. Hay, como máximo, una calificación por categoría.

BlockReason

Especifica el motivo por el que se bloqueó el mensaje.

Enumeradores
BLOCK_REASON_UNSPECIFIED Valor predeterminado Este valor no se usa.
SAFETY Se bloqueó el mensaje por razones de seguridad. Puedes inspeccionar safetyRatings para comprender qué categoría de seguridad lo bloqueó.
OTHER Se bloqueó el mensaje por motivos desconocidos.

UsageMetadata

Metadatos sobre el uso del token de la solicitud de generación.

Representación JSON
{
  "promptTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
Campos
promptTokenCount

integer

Cantidad de tokens en la instrucción. Cuando se configura cacheContent, este sigue siendo el tamaño total de la instrucción efectiva. Es decir, esto incluye la cantidad de tokens en el contenido almacenado en caché.

candidatesTokenCount

integer

Cantidad total de tokens en los candidatos generados.

totalTokenCount

integer

Recuento total de tokens para la solicitud de generación (mensaje + candidatos).