GenerateContentResponse

Odpowiedź z modelu obsługującego wielu kandydatów.

Uwaga na temat ocen bezpieczeństwa i filtrowania treści. Są one zgłaszane zarówno w przypadku promptów w elemencie GenerateContentResponse.prompt_feedback, jak i w przypadku każdego kandydata w polu finishReason i w safetyRatings. Umowa dotycząca interfejsu API: – albo zwracane są wszystkie żądane kandydaty, albo żaden kandydat nie jest zwracany – żaden kandydat nie jest zwracany tylko wtedy, gdy coś jest nie tak z promptem (patrz: promptFeedback), – opinie na temat każdego kandydata są przesyłane w finishReason i safetyRatings.

Zapis JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
Pola
candidates[]

object (Candidate)

Odpowiedzi kandydata z modelu.

promptFeedback

object (PromptFeedback)

Zwraca opinię promptu związaną z filtrami treści.

usageMetadata

object (UsageMetadata)

Tylko dane wyjściowe. Metadane dotyczące wykorzystania tokenów żądań generowania.

PromptFeedback

Zbiór metadanych opinii podanych w prompcie GenerateContentRequest.content.

Zapis JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Pola
blockReason

enum (BlockReason)

Opcjonalnie. Jeśli prompt został ustawiony, został zablokowany i nie zostały zwrócone żadne kandydaci. Przeredaguj prompt.

safetyRatings[]

object (SafetyRating)

Oceny pod kątem bezpieczeństwa promptu. Każda kategoria może mieć maksymalnie 1 ocenę.

BlockReason

Określa powód zablokowania promptu.

Wartości w polu enum
BLOCK_REASON_UNSPECIFIED Wartość domyślna. Ta wartość nie jest używana.
SAFETY Prompt został zablokowany ze względów bezpieczeństwa. Możesz sprawdzić zasadę safetyRatings, aby dowiedzieć się, która kategoria bezpieczeństwa ją zablokowała.
OTHER Prompt został zablokowany z nieznanych powodów.

UsageMetadata

Metadane dotyczące wykorzystania tokena żądania wygenerowania.

Zapis JSON
{
  "promptTokenCount": integer,
  "cachedContentTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
Pola
promptTokenCount

integer

Liczba tokenów w prompcie. Jeśli ustawiona jest treść w pamięci podręcznej, nadal jest to łączny efektywny rozmiar promptu. Oznacza to, że obejmuje to liczbę tokenów w pamięci podręcznej.

cachedContentTokenCount

integer

Liczba tokenów w części prompta w pamięci podręcznej, czyli w treści w pamięci podręcznej.

candidatesTokenCount

integer

Łączna liczba tokenów wśród wygenerowanych kandydatów.

totalTokenCount

integer

Łączna liczba tokenów w żądaniu wygenerowania (prompt + kandydaci).