Odpowiedź z modelu obsługującego wielu kandydatów.
Uwaga na temat ocen bezpieczeństwa i filtrowania treści. Są one zgłaszane zarówno w przypadku promptów w elemencie GenerateContentResponse.prompt_feedback
, jak i w przypadku każdego kandydata w polu finishReason
i w safetyRatings
. Umowa dotycząca interfejsu API: – albo zwracane są wszystkie żądane kandydaty, albo żaden kandydat nie jest zwracany – żaden kandydat nie jest zwracany tylko wtedy, gdy coś jest nie tak z promptem (patrz: promptFeedback
), – opinie na temat każdego kandydata są przesyłane w finishReason
i safetyRatings
.
Zapis JSON |
---|
{ "candidates": [ { object ( |
Pola | |
---|---|
candidates[] |
Odpowiedzi kandydata z modelu. |
promptFeedback |
Zwraca opinię promptu związaną z filtrami treści. |
usageMetadata |
Tylko dane wyjściowe. Metadane dotyczące wykorzystania tokenów żądań generowania. |
PromptFeedback
Zbiór metadanych opinii podanych w prompcie GenerateContentRequest.content
.
Zapis JSON |
---|
{ "blockReason": enum ( |
Pola | |
---|---|
blockReason |
Opcjonalnie. Jeśli prompt został ustawiony, został zablokowany i nie zostały zwrócone żadne kandydaci. Przeredaguj prompt. |
safetyRatings[] |
Oceny pod kątem bezpieczeństwa promptu. Każda kategoria może mieć maksymalnie 1 ocenę. |
BlockReason
Określa powód zablokowania promptu.
Wartości w polu enum | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Wartość domyślna. Ta wartość nie jest używana. |
SAFETY |
Prompt został zablokowany ze względów bezpieczeństwa. Możesz sprawdzić zasadę safetyRatings , aby dowiedzieć się, która kategoria bezpieczeństwa ją zablokowała. |
OTHER |
Prompt został zablokowany z nieznanych powodów. |
UsageMetadata
Metadane dotyczące wykorzystania tokena żądania wygenerowania.
Zapis JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Pola | |
---|---|
promptTokenCount |
Liczba tokenów w prompcie. Jeśli ustawiona jest treść w pamięci podręcznej, nadal jest to łączny efektywny rozmiar promptu. Oznacza to, że obejmuje to liczbę tokenów w pamięci podręcznej. |
cachedContentTokenCount |
Liczba tokenów w części prompta w pamięci podręcznej, czyli w treści w pamięci podręcznej. |
candidatesTokenCount |
Łączna liczba tokenów wśród wygenerowanych kandydatów. |
totalTokenCount |
Łączna liczba tokenów w żądaniu wygenerowania (prompt + kandydaci). |