GenerateContentResponse

Odpowiedź modelu obsługującego wiele kandydatów.

Uwaga dotycząca ocen bezpieczeństwa i filtrowania treści. Są one zgłaszane w przypadku promptu w grupie GenerateContentResponse.prompt_feedback oraz dla każdego kandydata w grupie finishReason i w safetyRatings. Umowa dotycząca interfejsu API brzmi w ten sposób: – zwracający wszyscy żądane kandydaci lub żaden kandydat nie jest zwracany – żaden kandydat nie jest zwracany tylko wtedy, gdy w prompcie coś jest nie tak (patrz: promptFeedback). – Opinia na temat każdego kandydata jest przesyłana finishReason i safetyRatings.

Zapis JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  }
}
Pola
candidates[]

object (Candidate)

Odpowiedzi kandydatów z modelu.

promptFeedback

object (PromptFeedback)

Zwraca opinię dotyczącą promptu związane z filtrami treści.

PromptFeedback

Zestaw metadanych opinii podanych w prompcie określony w polu GenerateContentRequest.content.

Zapis JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Pola
blockReason

enum (BlockReason)

Opcjonalnie. Jeśli zasada jest skonfigurowana, prompt został zablokowany i żaden kandydaci nie są zwracane. Zmodyfikuj prompt.

safetyRatings[]

object (SafetyRating)

Oceny związane z bezpieczeństwem promptu. Kategoria może mieć maksymalnie jedną ocenę.

BlockReason

Określa powód zablokowania promptu.

Wartości w polu enum
BLOCK_REASON_UNSPECIFIED Wartość domyślna. Ta wartość nie jest używana.
SAFETY Prompt został zablokowany ze względów bezpieczeństwa. Możesz sprawdzić safetyRatings, aby dowiedzieć się, która kategoria bezpieczeństwa go zablokowała.
OTHER Prompt został zablokowany z nieznanych przyczyn.