PaLM (decommissioned)

メソッド: models.generateText

指定された入力メッセージで、モデルからレスポンスを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

パスパラメータ

model string

必須。補完の生成に使用する Model または TunedModel の名前。例: models/text-bison-001 tunedModels/sentence-translator-u3b7m 形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。

safetySettings[] object (SafetySetting)

省略可。安全でないコンテンツをブロックするための一意の SafetySetting インスタンスのリスト。

GenerateTextRequest.promptGenerateTextResponse.candidates に適用されます。SafetyCategory タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory のデフォルト設定をオーバーライドします。リストに指定された SafetyCategorySafetySetting がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。

stopSequences[] string

出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。

temperature number

省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel 関数から返された ModelModel.temperature 属性をご覧ください。

値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様でクリエイティブなレスポンスが生成されます。一方、0.0 に近い値ほど、モデルからのレスポンスはより明快になります。

candidateCount integer

省略可。返す生成されたレスポンスの数。

この値は 1~8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。

maxOutputTokens integer

省略可。候補に含めるトークンの最大数。

設定しない場合、Model 仕様で指定された outputTokenLimit がデフォルトで使用されます。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、トップ K サンプリングとニュークレウス サンプリングが組み合わされています。

トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。

注: デフォルト値はモデルによって異なります。getModel 関数から返された ModelModel.top_p 属性をご覧ください。

topK integer

省略可。サンプリング時に考慮すべきトークンの最大数。

このモデルでは、トップ K サンプリングと核サンプリングが組み合わされています。

Top-k サンプリングでは、最も確率の高い topK 個のトークンのセットが考慮されます。デフォルトは 40 です。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_k 属性をご覧ください。

レスポンスの本文

成功した場合、レスポンスの本文には GenerateTextResponse のインスタンスが含まれます。

メソッド: models.countTextTokens

テキストに対してモデルのトークン化ツールを実行し、トークン数を返します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

パスパラメータ

model string

必須。モデルのリソース名。これは、モデルが使用する ID として機能します。

この名前は、models.list メソッドから返されるモデル名と一致する必要があります。

形式: models/{model} 形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

レスポンスの本文

models.countTextTokens からのレスポンス。

prompt のモデルの tokenCount を返します。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
tokenCount integer

modelprompt をトークン化するトークンの数。

常に正の値です。

JSON 表現
{
  "tokenCount": integer
}

メソッド: models.generateMessage

入力 MessagePrompt が与えられたときに、モデルからレスポンスを生成します。

エンドポイント

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

パスパラメータ

model string

必須。使用するモデルの名前。

形式: name=models/{model}。これは models/{model} の形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (MessagePrompt)

必須。プロンプトとしてモデルに与えられた構造化テキスト入力。

プロンプトを受け取ると、モデルはディスカッションの次のメッセージであると予測したものを返します。

temperature number

省略可。出力のランダム性を制御します。

値の範囲は [0.0,1.0] です。1.0 に近い値を指定すると、より多様なレスポンスが生成されます。一方、0.0 に近い値を指定すると、通常、モデルからのレスポンスの驚き度が低くなります。

candidateCount integer

省略可。生成されたレスポンス メッセージの返却数。

この値は [1, 8] の範囲内で指定してください。設定しない場合、デフォルトで 1 になります。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

核サンプリングでは、確率の合計が topP 以上の最小のトークンセットが検討されます。

topK integer

省略可。サンプリング時に考慮するトークンの最大数。

このモデルでは、トップ K サンプリングとニュークレウス サンプリングの組み合わせを使用します。

Top-k サンプリングでは、最も確率の高い topK 個のトークンのセットが考慮されます。

レスポンスの本文

モデルからのレスポンス。

これには、メッセージ候補と、時系列に並べられたメッセージ形式の会話履歴が含まれます。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

フィールド
candidates[] object (Message)

モデルからの候補レスポンス メッセージ。

messages[] object (Message)

モデルが使用する会話履歴。

filters[] object (ContentFilter)

プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。

これは、このレスポンスから候補をブロックした SafetyCategory、ブロックをトリガーした最小の HarmProbability、そのカテゴリの HarmThreshold 設定を示します。

JSON 表現
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

メソッド: models.countMessageTokens

文字列に対してモデルのトークン化ツールを実行し、トークン数を返します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

パスパラメータ

model string

必須。モデルのリソース名。これは、モデルが使用する ID として機能します。

この名前は、models.list メソッドから返されるモデル名と一致する必要があります。

形式: models/{model} 形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (MessagePrompt)

必須。トークン数を返すプロンプト。

レスポンスの本文

models.countMessageTokens からのレスポンス。

prompt に対するモデルの tokenCount を返します。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

フィールド
tokenCount integer

modelprompt をトークン化するトークンの数。

常に正の値です。

JSON 表現
{
  "tokenCount": integer
}

メソッド: models.embedText

入力メッセージからモデルからエンベディングを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

パスパラメータ

model string

必須。使用するモデル名(model=models/{model} 形式)。形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
text string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。

レスポンスの本文

EmbedTextRequest に対するレスポンス。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

フィールド
embedding object (Embedding)

出力専用。入力テキストから生成されたエンベディング。

JSON 表現
{
  "embedding": {
    object (Embedding)
  }
}

メソッド: models.batchEmbedText

同期呼び出しで入力テキストが指定されたモデルから、複数のエンベディングを生成します。

エンドポイント

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

パスパラメータ

model string

必須。エンベディングの生成に使用する Model の名前。例: models/embedding-gecko-001。形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

フィールド
texts[] string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。現在の上限は 100 テキストで、上限を超えるとエラーがスローされます。

requests[] object (EmbedTextRequest)

省略可。バッチの埋め込みリクエスト。texts または requests のいずれかのみを設定できます。

レスポンスの本文

EmbedTextRequest に対するレスポンス。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
embeddings[] object (Embedding)

出力専用。入力テキストから生成されたエンベディング。

JSON 表現
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

モデルからテキスト エンベディングを取得するリクエスト。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
model string

必須。model=models/{model} の形式で使用するモデル名。

text string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。

JSON 表現
{
  "model": string,
  "text": string
}

メソッド: tunedModels.generateText

入力メッセージに基づいてモデルからレスポンスを生成します。

エンドポイント

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

パスパラメータ

model string

必須。補完の生成に使用する Model または TunedModel の名前。例: models/text-bison-001tuningModels/sentence-translator-u3b7m。tunedModels/{tunedmodel} という形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。

safetySettings[] object (SafetySetting)

省略可。安全でないコンテンツをブロックするための一意の SafetySetting インスタンスのリスト。

GenerateTextRequest.promptGenerateTextResponse.candidates に適用されます。SafetyCategory タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory のデフォルト設定をオーバーライドします。リストに指定された SafetyCategorySafetySetting がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。

stopSequences[] string

出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。

temperature number

省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel 関数から返された ModelModel.temperature 属性をご覧ください。

値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様でクリエイティブなレスポンスが生成されます。一方、0.0 に近い値ほど、モデルからのレスポンスはより明快になります。

candidateCount integer

省略可。返す生成されたレスポンスの数。

この値は 1~8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。

maxOutputTokens integer

省略可。候補に含めるトークンの最大数。

設定しない場合、Model 仕様で指定された outputTokenLimit がデフォルトで使用されます。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、トップ K サンプリングとニュークレウス サンプリングが組み合わされています。

トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。

注: デフォルト値はモデルによって異なります。getModel 関数から返された ModelModel.top_p 属性をご覧ください。

topK integer

省略可。サンプリング時に考慮すべきトークンの最大数。

このモデルでは、トップ K サンプリングと核サンプリングが組み合わされています。

Top-k サンプリングでは、最も確率の高い topK 個のトークンのセットが考慮されます。デフォルトは 40 です。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_k 属性をご覧ください。

レスポンスの本文

成功した場合、レスポンスの本文には GenerateTextResponse のインスタンスが含まれます。

ContentFilter

単一のリクエストの処理に関連するコンテンツ フィルタリングのメタデータ。

ContentFilter には、理由と、オプションのサポート文字列が含まれます。理由は不明でもかまいません。

フィールド
reason enum (BlockedReason)

リクエストの処理中にコンテンツがブロックされた理由。

message string

フィルタリング動作を詳しく説明する文字列。

JSON 表現
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

コンテンツがブロックされた理由の一覧。

列挙型
BLOCKED_REASON_UNSPECIFIED ブロックされた理由が指定されていません。
SAFETY コンテンツが安全性設定によってブロックされました。
OTHER コンテンツはブロックされましたが、理由は不明です。

埋め込み

エンベディングを表す浮動小数点数のリスト。

フィールド
value[] number

エンベディング値。

JSON 表現
{
  "value": [
    number
  ]
}

メッセージ

構造化テキストの基本単位。

Message には、Messageauthorcontent が含まれます。

author は、メッセージがテキストとしてモデルにフィードされるときにタグ付けするために使用されます。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
author string

省略可。このメッセージの作成者。

これは、このメッセージをテキストとしてモデルにフィードする際に、そのメッセージの内容にタグを付ける際の鍵となります。

作成者には任意の英数字文字列を使用できます。

content string

必須。構造化された Message のテキスト コンテンツ。

citationMetadata object (CitationMetadata)

出力専用。この Message のモデル生成の content の引用情報。

この Message がモデルの出力として生成された場合、このフィールドには content に含まれるテキストのアトリビューション情報が入力される場合があります。このフィールドは出力でのみ使用されます。

JSON 表現
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

プロンプトとしてモデルに渡される構造化された入力テキスト。

MessagePrompt には、会話のコンテキストを提供する構造化されたフィールドセット、さまざまな方法で応答するようにモデルを準備するユーザー入力 / モデル出力メッセージペアの例、会話履歴、またはユーザーとモデルとの会話の交代ターンを表すメッセージのリストが含まれます。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
context string

省略可。有効な回答を得るために最初にモデルに提供する必要のあるテキスト。

空でない場合、この context が、examplesmessages の前にモデルに与えられます。context を使用する場合は、継続性を維持するため、すべてのリクエストに指定してください。

このフィールドには、コンテキストを提供して回答を導くために、モデルに送信するプロンプトの説明を指定できます。例: 「このフレーズを英語からフランス語に翻訳して」または「発言があったら、感情を幸せ、悲しい、中立的に分類してください」

入力サイズの合計がモデルの inputTokenLimit を超えて入力リクエストが切り捨てられた場合、このフィールドに含まれる内容がメッセージ履歴よりも優先されます。

examples[] object (Example)

省略可。モデルが生成する内容の例。

これには、ユーザー入力と、モデルがエミュレートする必要があるレスポンスの両方が含まれます。

これらの examples は、messages の履歴よりも優先される点を除き、会話メッセージと同じように扱われます。入力の合計サイズがモデルの inputTokenLimit を超えると、入力は切り捨てられます。アイテムは examples の前に messages から削除されます。

messages[] object (Message)

必須。最近の会話履歴が時系列で並べ替えられたスナップショット。

2 人の著者が交互に現れます。

入力の合計サイズがモデルの inputTokenLimit を超えると、入力は切り捨てられます。最も古いアイテムが messages から削除されます。

JSON 表現
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

モデルに指示するために使用される入出力の例。

モデルがどのようにレスポンスやレスポンスの形式を決めるべきかを示します。

フィールド
input object (Message)

必須。ユーザーからの入力 Message の例。

output object (Message)

必須。入力が与えられた場合にモデルが出力する内容の例。

JSON 表現
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

候補の完成形を含む、モデルからのレスポンス。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
candidates[] object (TextCompletion)

モデルからの候補レスポンス。

filters[] object (ContentFilter)

プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。

これは、このレスポンスから候補をブロックした SafetyCategory、ブロックをトリガーした最小の HarmProbability、そのカテゴリの HarmThreshold 設定を示します。これは、少なくとも 1 件の回答のブロックを解除するために必要な SafetySettings の最小変更を示します。

ブロックは、リクエストの SafetySettings(または API のデフォルトの SafetySettings)によって構成されます。

safetyFeedback[] object (SafetyFeedback)

コンテンツ フィルタリングに関連する安全性に関するフィードバックを返します。

JSON 表現
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

モデルから返された出力テキスト。

で確認できます。
フィールド <ph type="x-smartling-placeholder">
</ph>
output string

出力専用。モデルから返された生成テキスト。

safetyRatings[] object (SafetyRating)

レスポンスの安全性に関する評価。

カテゴリごとに最大 1 つの評価を指定できます。

citationMetadata object (CitationMetadata)

出力専用。この TextCompletion でモデル生成の output の引用情報。

このフィールドには、output に含まれるすべてのテキストの帰属情報が入力されます。

JSON 表現
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

リクエスト全体の安全性に関するフィードバック。

安全性設定によって入力やレスポンスのコンテンツがブロックされている場合に、このフィールドが設定されます。SafetyFeedback は、すべての HarmCategory に存在するとは限りません。各 SafetyFeedback は、リクエストで使用される安全性設定と、結果を返すために許可される最小の HarmProbability を返します。

フィールド
rating object (SafetyRating)

コンテンツから評価された安全性能総合評価。

setting object (SafetySetting)

安全性設定がリクエストに適用されました。

JSON 表現
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

プロンプトとしてモデルに渡されるテキスト。

モデルは、この TextPrompt を使用してテキスト補完を生成します。

フィールド
text string

必須。プロンプトのテキスト。

JSON 表現
{
  "text": string
}