GenerateContentResponse

複数の候補をサポートするモデルからの応答。

安全レーティングとコンテンツ フィルタリングに関する注意事項。GenerateContentResponse.prompt_feedback のプロンプトと、finishReasonsafetyRatings の各候補の両方で報告されます。API コントラクト: - リクエストされたすべての受験者が返されるか、まったく受験者が返されない - プロンプトに何か問題があった場合にのみ候補が返されない(promptFeedback を参照)- 各候補に関するフィードバックが finishReasonsafetyRatings で報告されます。

JSON 表現
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  }
}
フィールド
candidates[]

object (Candidate)

モデルからのレスポンス候補。

promptFeedback

object (PromptFeedback)

コンテンツ フィルタに関連するプロンプトのフィードバックを返します。

受験者

モデルから生成されたレスポンス候補。

JSON 表現
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "index": integer
}
フィールド
content

object (Content)

出力のみ。モデルから返された生成コンテンツ

finishReason

enum (FinishReason)

(省略可)出力のみ。モデルがトークンの生成を停止した理由。

空の場合、モデルによるトークンの生成は停止していません。

safetyRatings[]

object (SafetyRating)

レスポンス候補の安全性に関する評価のリスト。

カテゴリごとに最大 1 つの評価があります。

citationMetadata

object (CitationMetadata)

出力のみ。モデルで生成された候補の引用情報。

このフィールドには、content に含まれるテキストの列挙情報を指定できます。LLM の基礎的なトレーニング データに含まれる著作物から「列挙」された文章のことです。

tokenCount

integer

出力のみ。この受験者のトークン数。

index

integer

出力のみ。候補者リスト内の候補者のインデックス。

FinishReason

モデルがトークンの生成を停止した理由を定義します。

列挙型
FINISH_REASON_UNSPECIFIED デフォルト値。この値は使用されません。
STOP モデルの自然な停車場所、または指定された停車シーケンス。
MAX_TOKENS リクエストで指定されたトークンの最大数に達しました。
SAFETY 安全性を確保するために受験者のコンテンツが報告されました。
RECITATION 列挙理由から候補者のコンテンツがフラグが付けられました。
OTHER 不明な理由。

SafetyRating

コンテンツの安全性評価。

安全性の評価には、あるコンテンツに対する危害のカテゴリと、そのカテゴリにおける危害確率レベルが含まれます。コンテンツは複数の有害カテゴリで安全性に分類されており、危害分類が発生する確率がここに含まれます。

JSON 表現
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}
フィールド
category

enum (HarmCategory)

必須。この評価のカテゴリ。

probability

enum (HarmProbability)

必須。このコンテンツが害を及ぼす可能性。

blocked

boolean

コンテンツはこの評価が原因でブロックされましたか?

HarmProbability

コンテンツが有害である確率。

分類システムは、コンテンツが安全でない確率を示します。コンテンツに対する有害性の重大度を示すものではありません。

列挙型
HARM_PROBABILITY_UNSPECIFIED 確率が指定されていません。
NEGLIGIBLE コンテンツが安全でない可能性はごくわずかです。
LOW コンテンツが安全でない可能性は低いです。
MEDIUM コンテンツが安全でない可能性があります。
HIGH コンテンツが安全でない可能性が高いと判断できます。

CitationMetadata

コンテンツのソース帰属情報のコレクション。

JSON 表現
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}
フィールド
citationSources[]

object (CitationSource)

特定の回答に関する情報源の引用。

CitationSource

特定の回答の一部に対する参照元の引用。

JSON 表現
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}
フィールド
startIndex

integer

(省略可)このソースに結び付けられたレスポンスのセグメントの開始。

インデックスは、セグメントの開始位置(バイト数)を示します。

endIndex

integer

(省略可)貢献度が割り当てられたセグメントの終了時(この値を除く)。

uri

string

(省略可)テキスト部分のソースとして帰属される URI。

license

string

(省略可)セグメントのソースとして割り当てられている GitHub プロジェクトのライセンス。

コードの引用にはライセンス情報が必要です。

PromptFeedback

プロンプトが GenerateContentRequest.content で指定したフィードバック メタデータのセット。

JSON 表現
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
フィールド
blockReason

enum (BlockReason)

(省略可)設定されている場合、プロンプトはブロックされ、候補は返されません。プロンプトを言い換えてください。

safetyRatings[]

object (SafetyRating)

プロンプトの安全性に関する評価。カテゴリごとに最大 1 つの評価があります。

BlockReason

プロンプトがブロックされた理由を示します。

列挙型
BLOCK_REASON_UNSPECIFIED デフォルト値。この値は使用されません。
SAFETY 安全上の理由により、プロンプトはブロックされました。safetyRatings を調べると、どの安全性カテゴリがそれをブロックしているかを把握できます。
OTHER 不明な原因により、プロンプトはブロックされました。