GenerateTextResponse

候補の完了を含む、モデルからのレスポンス。

JSON 表現
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
フィールド
candidates[]

object (TextCompletion)

モデルからのレスポンス候補。

filters[]

object (ContentFilter)

プロンプトとレスポンスのテキストのコンテンツ フィルタリング メタデータのセット。

これは、このレスポンスから候補をブロックした SafetyCategory、ブロックをトリガーした最小の HarmProbability、そのカテゴリの HarmThreshold 設定を示します。これは、少なくとも 1 つの応答のブロックを解除するために必要な SafetySettings に対する最小限の変更を示します。

ブロックは、リクエストの SafetySettings(または API のデフォルトの SafetySettings)によって構成されます。

safetyFeedback[]

object (SafetyFeedback)

コンテンツ フィルタリングに関連する安全に関するフィードバックを返します。

TextCompletion

モデルから返された出力テキスト。

JSON 表現
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
フィールド
output

string

出力のみ。モデルから返された生成テキスト。

safetyRatings[]

object (SafetyRating)

レスポンスの安全性に関する評価。

カテゴリごとに最大 1 つの評価があります。

citationMetadata

object (CitationMetadata)

出力のみ。この TextCompletion 内のモデル生成 output の引用情報。

このフィールドには、output に含まれるテキストの帰属情報を設定できます。

SafetyFeedback

リクエスト全体に対する安全性に関するフィードバック

このフィールドは、入力やレスポンスの内容が安全性設定によってブロックされた場合に入力されます。SafetyFeedback はすべての HarmCategory に存在するとは限りません。各 SafetyFeedback は、リクエストで使用された安全設定と、結果を返すために許容される最低の HarmProbability を返します。

JSON 表現
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
フィールド
rating

object (SafetyRating)

安全性の評価はコンテンツに基づいて評価されました。

setting

object (SafetySetting)

リクエストに適用される安全性設定。