Antwort des Modells, die mehrere Kandidaten unterstützt.
Hinweis zu Sicherheitsbewertungen und Filtern von Inhalten. Sie werden sowohl für die Aufforderung in GenerateContentResponse.prompt_feedback
als auch für jeden Kandidaten in finishReason
und safetyRatings
gemeldet. Im API-Vertrag gilt Folgendes: – Es werden entweder alle angeforderten Kandidaten zurückgegeben oder gar keine Kandidaten – es werden nur dann keine Kandidaten zurückgegeben, wenn ein Fehler mit dem Prompt vorliegt (siehe promptFeedback
) – Feedback zu jedem Kandidaten wird unter finishReason
und safetyRatings
gemeldet.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
Felder | |
---|---|
candidates[] |
Mögliche Antworten aus dem Modell. |
promptFeedback |
Gibt das Feedback des Prompts in Bezug auf die Inhaltsfilter zurück. |
usageMetadata |
Nur Ausgabe. Metadaten zur Tokennutzung der Generierungsanfragen. |
PromptFeedback
Ein Satz der Feedback-Metadaten, die der in GenerateContentRequest.content
angegebene Prompt enthält.
JSON-Darstellung |
---|
{ "blockReason": enum ( |
Felder | |
---|---|
blockReason |
Optional. Wenn festgelegt, wurde die Aufforderung blockiert und es werden keine Kandidaten zurückgegeben. Formulieren Sie den Prompt um. |
safetyRatings[] |
Bewertungen zur Sicherheit des Prompts. Es gibt maximal eine Bewertung pro Kategorie. |
BlockReason
Gibt an, warum die Aufforderung blockiert wurde.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
SAFETY |
Die Aufforderung wurde aus Sicherheitsgründen blockiert. Du kannst safetyRatings prüfen, um herauszufinden, welche Sicherheitskategorie es blockiert hat. |
OTHER |
Die Aufforderung wurde aus unbekannten Gründen blockiert. |
UsageMetadata
Metadaten zur Tokennutzung der Generierungsanfrage.
JSON-Darstellung |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Felder | |
---|---|
promptTokenCount |
Anzahl der Tokens in der Aufforderung. Wenn „cacheContent“ festgelegt ist, ist dies immer noch die effektive Gesamtgröße des Prompts. Dies schließt die Anzahl der Tokens im Cache-Inhalt ein. |
cachedContentTokenCount |
Anzahl der Tokens im im Cache gespeicherten Teil der Aufforderung, d.h. im im Cache gespeicherten Inhalt. |
candidatesTokenCount |
Gesamtzahl der Tokens für die generierten Kandidaten. |
totalTokenCount |
Gesamtzahl der Tokens für die Generierungsanfrage (Prompt und Kandidaten). |