GenerateContentResponse

複数の候補をサポートするモデルからのレスポンス。

安全評価とコンテンツ フィルタリングに関する注意事項。これらは、GenerateContentResponse.prompt_feedback の両方のプロンプトに対して、finishReason および safetyRatings の各候補に対して報告されます。API コントラクトでは、- リクエストされたすべての候補者が返されるか、まったく候補が返されません。- プロンプトに問題があった場合にのみ候補が返されません(promptFeedback を参照)。- 各候補に関するフィードバックは、finishReasonsafetyRatings に報告されます。

JSON 表現
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
フィールド
candidates[]

object (Candidate)

モデルからの候補レスポンス。

promptFeedback

object (PromptFeedback)

コンテンツ フィルタに関するプロンプトのフィードバックを返します。

usageMetadata

object (UsageMetadata)

出力専用。生成リクエストのトークン使用状況に関するメタデータ。

受験者

モデルから生成されたレスポンスの候補。

JSON 表現
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "index": integer
}
フィールド
content

object (Content)

出力専用。モデルから返された生成コンテンツ。

finishReason

enum (FinishReason)

省略可。出力専用。モデルがトークンの生成を停止した理由。

空の場合、モデルはトークンの生成を停止していません。

safetyRatings[]

object (SafetyRating)

レスポンス候補の安全性に関する評価のリスト。

カテゴリごとに最大 1 つの評価を指定できます。

citationMetadata

object (CitationMetadata)

出力専用。モデル生成候補の引用情報。

このフィールドには、content に含まれる任意のテキストの列挙情報を入力できます。これらは、基盤 LLM のトレーニング データに著作権で保護された素材から「列挙」された文章です。

tokenCount

integer

出力専用。この候補のトークン数。

index

integer

出力専用。候補リスト内の候補のインデックス。

FinishReason

モデルがトークンの生成を停止した理由を定義します。

列挙型
FINISH_REASON_UNSPECIFIED デフォルト値。この値は使用されません。
STOP モデルの自然な停止点、または指定された停止シーケンス。
MAX_TOKENS リクエストで指定されたトークンの最大数に達しました。
SAFETY 安全上の理由により、候補のコンテンツにフラグが付けられました。
RECITATION 列挙の理由で受験者のコンテンツが報告されました。
OTHER 不明な理由。

SafetyRating

コンテンツの安全性評価。

安全性評価には、有害のカテゴリとそのカテゴリにおける、コンテンツに対する危害の可能性のレベルが含まれます。コンテンツはさまざまな有害カテゴリにわたって安全性について分類されており、有害が分類される確率はここに含まれています。

JSON 表現
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}
フィールド
category

enum (HarmCategory)

必須。この評価のカテゴリ。

probability

enum (HarmProbability)

必須。このコンテンツが害を及ぼす確率。

blocked

boolean

このコンテンツはこの評価が原因でブロックされましたか?

HarmProbability

コンテンツが有害である確率。

分類システムは、コンテンツが安全でない確率を示します。これは、コンテンツが特定の有害性の重大度を示すものではありません。

列挙型
HARM_PROBABILITY_UNSPECIFIED 確率が指定されていません。
NEGLIGIBLE コンテンツが安全でない確率はごくわずかである。
LOW コンテンツが安全でない確率は低い。
MEDIUM コンテンツが安全でない確率は中程度である。
HIGH コンテンツが安全でない確率が高い。

CitationMetadata

コンテンツのソース帰属情報のコレクション。

JSON 表現
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}
フィールド
citationSources[]

object (CitationSource)

特定の回答に対するソースの引用。

CitationSource

特定のレスポンスの一部に対するソースの引用。

JSON 表現
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}
フィールド
startIndex

integer

省略可。このソースに起因するレスポンスのセグメントの開始。

インデックスはセグメントの開始をバイト単位で示します。

endIndex

integer

省略可。貢献度が割り当てられたセグメントの終了値(この値を含まない)。

uri

string

省略可。テキストの一部に対するソースとして帰属する URI。

license

string

省略可。セグメントのソースとして関連付けられている GitHub プロジェクトのライセンス。

コードを引用するにはライセンス情報が必要です。

PromptFeedback

GenerateContentRequest.content で指定されたプロンプトに対するフィードバック メタデータのセット。

JSON 表現
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
フィールド
blockReason

enum (BlockReason)

省略可。設定すると、プロンプトがブロックされ、候補は返されません。プロンプトを言い換えてください。

safetyRatings[]

object (SafetyRating)

プロンプトの安全性に関する評価。カテゴリごとに最大 1 つの評価を指定できます。

BlockReason

プロンプトがブロックされた理由を指定します。

列挙型
BLOCK_REASON_UNSPECIFIED デフォルト値。この値は使用されません。
SAFETY 安全上の理由により、プロンプトがブロックされました。safetyRatings を調べると、どの安全性カテゴリでブロックされたかがわかります。
OTHER 不明な理由によりプロンプトがブロックされました。

UsageMetadata

生成リクエストのトークン使用状況に関するメタデータ。

JSON 表現
{
  "promptTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
フィールド
promptTokenCount

integer

プロンプト内のトークンの数。cacheContent が設定されている場合でも、これは有効なプロンプトの合計サイズです。つまり、キャッシュに保存されたコンテンツ内のトークンの数も含まれます。

candidatesTokenCount

integer

生成された候補全体のトークンの合計数。

totalTokenCount

integer

生成リクエストの合計トークン数(プロンプト + 候補)。