PaLM (deprecated)

メソッド: models.generateText

指定された入力メッセージで、モデルからレスポンスを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

パスパラメータ

model string

必須。コンプリーションの生成に使用する Model または TunedModel の名前。例: models/text-bison-001tuningModels/sentence-translator-u3b7m。models/{model} という形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。

safetySettings[] object (SafetySetting)

省略可。安全でないコンテンツをブロックするための一意の SafetySetting インスタンスのリスト。

GenerateTextRequest.promptGenerateTextResponse.candidates に適用されます。SafetyCategory タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory のデフォルト設定をオーバーライドします。指定された SafetyCategorySafetySetting がリストで指定された場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。

stopSequences[] string

出力の生成を停止する文字シーケンスのセット(最大 5 個)。指定すると、API は停止シーケンスが最初に発生したときに停止します。停止シーケンスはレスポンスには含まれません。

temperature number

省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.temperature 属性をご覧ください。

値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様で創造的なレスポンスが生成され、0.0 に近い値ほどモデルからのレスポンスはより明快になります。

candidateCount integer

省略可。返される生成レスポンスの数。

この値は [1, 8] の範囲内である必要があります。設定しない場合のデフォルトは 1 です。

maxOutputTokens integer

省略可。候補に含めるトークンの最大数。

設定しない場合、Model 仕様で指定された outputTokenLimit がデフォルトで使用されます。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

トークンは割り当てられた確率に基づいて並べ替えられ、最も可能性が高いトークンのみが考慮されます。Top-k サンプリングでは、考慮すべきトークンの最大数が直接制限されますが、Nucleus サンプリングでは、累積確率に基づいてトークンの数が制限されます。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_p 属性をご覧ください。

topK integer

省略可。サンプリング時に考慮すべきトークンの最大数。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

トップ K サンプリングでは、最も確率が高い topK のトークンのセットが考慮されます。デフォルトは 40 です。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_k 属性をご覧ください。

レスポンスの本文

成功した場合、レスポンスの本文には GenerateTextResponse のインスタンスが含まれます。

メソッド: models.countTextTokens

テキストに対してモデルのトークナイザを実行し、トークン数を返します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

パスパラメータ

model string

必須。モデルのリソース名。これは、モデルが使用する ID として機能します。

この名前は、models.list メソッドから返されるモデル名と一致する必要があります。

形式: models/{model}models/{model} の形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

レスポンスの本文

models.countTextTokens からのレスポンス。

prompt に対するモデルの tokenCount を返します。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
tokenCount integer

modelprompt をトークン化するトークンの数。

常に負数ではありません。

JSON 表現
{
  "tokenCount": integer
}

メソッド: models.generateMessage

入力 MessagePrompt が与えられたときに、モデルからレスポンスを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

パスパラメータ

model string

必須。使用するモデルの名前。

形式: name=models/{model}。これは models/{model} の形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (MessagePrompt)

必須。プロンプトとしてモデルに与えられた構造化テキスト入力。

プロンプトを受け取ると、モデルはディスカッションの次のメッセージであると予測したものを返します。

temperature number

省略可。出力のランダム性を制御します。

値の範囲は [0.0,1.0] 以上です。値が 1.0 に近いほどレスポンスのばらつきが大きくなり、0.0 に近い値ほど、モデルからの予想外のレスポンスが少なくなります。

candidateCount integer

省略可。生成されるレスポンス メッセージの数。

この値は [1, 8] の範囲内で指定してください。設定しない場合、デフォルトで 1 になります。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

核サンプリングでは、確率合計が topP 以上の最小のトークンセットが考慮されます。

topK integer

省略可。サンプリング時に考慮すべきトークンの最大数。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

トップ K サンプリングでは、最も確率が高い topK のトークンのセットが考慮されます。

レスポンスの本文

モデルからのレスポンス。

これには、時系列順に並べられたメッセージの候補メッセージと会話履歴が含まれます。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
candidates[] object (Message)

モデルからの候補レスポンス メッセージ。

messages[] object (Message)

モデルが使用する会話履歴。

filters[] object (ContentFilter)

プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。

これは、このレスポンスから候補をブロックした SafetyCategory、ブロックをトリガーした最小の HarmProbability、そのカテゴリの HarmThreshold 設定を示します。

JSON 表現
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

メソッド: models.countMessageTokens

文字列に対してモデルのトークナイザを実行し、トークン数を返します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

パスパラメータ

model string

必須。モデルのリソース名。これは、モデルが使用する ID として機能します。

この名前は、models.list メソッドから返されるモデル名と一致する必要があります。

形式: models/{model}models/{model} の形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (MessagePrompt)

必須。トークン数を返すプロンプト。

レスポンスの本文

models.countMessageTokens からのレスポンス。

prompt に対するモデルの tokenCount を返します。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
tokenCount integer

modelprompt をトークン化するトークンの数。

常に負数ではありません。

JSON 表現
{
  "tokenCount": integer
}

メソッド: models.embedText

指定された入力メッセージで、モデルからエンベディングを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

パスパラメータ

model string

必須。使用するモデル名(model=models/{model} 形式)。形式は models/{model} です。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
text string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。

レスポンスの本文

EmbedTextRequest に対するレスポンス。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
embedding object (Embedding)

出力専用。入力テキストから生成されたエンベディング。

JSON 表現
{
  "embedding": {
    object (Embedding)
  }
}

メソッド: models.batchEmbedText

同期呼び出しで入力テキストが指定されたモデルから、複数のエンベディングを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

パスパラメータ

model string

必須。エンベディングの生成に使用する Model の名前。例: models/embedding-gecko-001 これは models/{model} の形式を取ります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
texts[] string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。現在の上限は 100 テキストで、上限を超えるとエラーがスローされます。

requests[] object (EmbedTextRequest)

省略可。バッチの埋め込みリクエスト。texts または requests のいずれかのみ設定できます。

レスポンスの本文

EmbedTextRequest に対するレスポンス。

成功した場合、レスポンスの本文には次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
embeddings[] object (Embedding)

出力専用。入力テキストから生成されたエンベディング。

JSON 表現
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

モデルからテキスト エンベディングを取得するリクエスト。

JSON 表現
{
  "model": string,
  "text": string
}
<ph type="x-smartling-placeholder">
</ph> フィールド
model string

必須。使用するモデル名(model=models/{model} 形式)。

text string

省略可。モデルがエンベディングに変換する自由形式の入力テキスト。

メソッド: tuningModels.generateText

指定された入力メッセージで、モデルからレスポンスを生成します。

エンドポイント

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 投稿 https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

パスパラメータ

model string

必須。コンプリーションの生成に使用する Model または TunedModel の名前。例: models/text-bison-001tuningModels/sentence-translator-u3b7m。tunedModels/{tunedmodel} という形式になります。

リクエスト本文

リクエストの本文には、次の構造のデータが含まれます。

<ph type="x-smartling-placeholder">
</ph> フィールド
prompt object (TextPrompt)

必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。

プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。

safetySettings[] object (SafetySetting)

省略可。安全でないコンテンツをブロックするための一意の SafetySetting インスタンスのリスト。

GenerateTextRequest.promptGenerateTextResponse.candidates に適用されます。SafetyCategory タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory のデフォルト設定をオーバーライドします。指定された SafetyCategorySafetySetting がリストで指定された場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。

stopSequences[] string

出力の生成を停止する文字シーケンスのセット(最大 5 個)。指定すると、API は停止シーケンスが最初に発生したときに停止します。停止シーケンスはレスポンスには含まれません。

temperature number

省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.temperature 属性をご覧ください。

値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様で創造的なレスポンスが生成され、0.0 に近い値ほどモデルからのレスポンスはより明快になります。

candidateCount integer

省略可。返される生成レスポンスの数。

この値は [1, 8] の範囲内である必要があります。設定しない場合のデフォルトは 1 です。

maxOutputTokens integer

省略可。候補に含めるトークンの最大数。

設定しない場合、Model 仕様で指定された outputTokenLimit がデフォルトで使用されます。

topP number

省略可。サンプリング時に考慮すべきトークンの最大累積確率。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

トークンは割り当てられた確率に基づいて並べ替えられ、最も可能性が高いトークンのみが考慮されます。Top-k サンプリングでは、考慮すべきトークンの最大数が直接制限されますが、Nucleus サンプリングでは、累積確率に基づいてトークンの数が制限されます。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_p 属性をご覧ください。

topK integer

省略可。サンプリング時に考慮すべきトークンの最大数。

このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。

トップ K サンプリングでは、最も確率が高い topK のトークンのセットが考慮されます。デフォルトは 40 です。

注: デフォルト値はモデルによって異なります。getModel 関数を返した ModelModel.top_k 属性をご覧ください。

レスポンスの本文

成功した場合、レスポンスの本文には GenerateTextResponse のインスタンスが含まれます。

ContentFilter

単一のリクエストの処理に関連するコンテンツ フィルタリングのメタデータ。

ContentFilter には、理由と、オプションのサポート文字列が含まれます。理由は不明でもかまいません。

JSON 表現
{
  "reason": enum (BlockedReason),
  "message": string
}
<ph type="x-smartling-placeholder">
</ph> フィールド
reason enum (BlockedReason)

リクエストの処理中にコンテンツがブロックされた理由。

message string

フィルタリングの動作をより詳細に記述する文字列。

BlockedReason

コンテンツがブロックされた理由の一覧。

列挙型
BLOCKED_REASON_UNSPECIFIED ブロックされた理由が指定されていません。
SAFETY 安全性設定によりコンテンツがブロックされました。
OTHER コンテンツはブロックされましたが、理由は不明です。

埋め込み

エンベディングを表す浮動小数点数のリスト。

JSON 表現
{
  "value": [
    number
  ]
}
<ph type="x-smartling-placeholder">
</ph> フィールド
value[] number

エンベディング値。

メッセージ

構造化テキストの基本単位。

Message には、Messageauthorcontent が含まれます。

author は、メッセージがテキストとしてモデルにフィードされるときに、メッセージにタグを付けるために使用されます。

JSON 表現
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
<ph type="x-smartling-placeholder">
</ph> フィールド
author string

省略可。このメッセージの作成者。

これは、メッセージをテキストとしてモデルにフィードするときに、Message のコンテンツにタグを付ける際のキーとして機能します。

作成者には任意の英数字の文字列を指定できます。

content string

必須。構造化された Message のテキスト コンテンツ。

citationMetadata object (CitationMetadata)

出力専用。この Message でモデル生成の content の引用情報。

この Message がモデルからの出力として生成された場合、このフィールドには content に含まれるすべてのテキストのアトリビューション情報が入力されます。このフィールドは出力にのみ使用されます。

MessagePrompt

プロンプトとしてモデルに渡されるすべての構造化入力テキスト。

MessagePrompt には、会話のコンテキストを提供する構造化された一連のフィールド、モデルにさまざまな方法で応答するためのユーザー入力/モデル出力メッセージのペアの例、ユーザーとモデル間の会話の交互のターンを表す会話履歴またはメッセージのリストが含まれます。

JSON 表現
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
<ph type="x-smartling-placeholder">
</ph> フィールド
context string

省略可。有効な回答を得るために最初にモデルに提供する必要のあるテキスト。

空でない場合、この context が、examplesmessages の前にモデルに与えられます。context を使用する場合は、継続性を維持するため、すべてのリクエストに指定してください。

このフィールドに、モデルに対するプロンプトの説明を入力できます。コンテキストを提供し、レスポンスを導くのに役立ちます。例: 「このフレーズを英語からフランス語に翻訳して」または「発言があったら、感情を幸せ、悲しい、中立的に分類してください」

入力の合計サイズがモデルの inputTokenLimit を超え、入力リクエストが切り捨てられた場合、このフィールドに含まれるものはすべてメッセージ履歴よりも優先されます。

examples[] object (Example)

省略可。モデルが生成する内容の例。

これには、ユーザー入力と、モデルがエミュレートする必要があるレスポンスの両方が含まれます。

これらの examples は、messages の履歴よりも優先される点を除き、会話メッセージと同様に扱われます。入力の合計サイズがモデルの inputTokenLimit を超えると、入力は切り捨てられます。アイテムは examplesまでに messages から削除されます。

messages[] object (Message)

必須。最近の会話履歴が時系列で並べ替えられたスナップショット。

2 人の著者が交互に現れます。

入力の合計サイズがモデルの inputTokenLimit を超えると、入力は切り捨てられます。最も古いアイテムが messages から削除されます。

モデルに指示するために使用される入出力の例。

モデルがどのように応答するか、どのように応答するかを示します。

JSON 表現
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
<ph type="x-smartling-placeholder">
</ph> フィールド
input object (Message)

必須。ユーザーからの入力 Message の例。

output object (Message)

必須。入力に基づいてモデルが出力する内容の例。

GenerateTextResponse

モデルからのレスポンス(候補の完成を含む)。

JSON 表現
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
<ph type="x-smartling-placeholder">
</ph> フィールド
candidates[] object (TextCompletion)

モデルからの候補レスポンス。

filters[] object (ContentFilter)

プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。

これは、このレスポンスから候補をブロックした SafetyCategory、ブロックをトリガーした最小の HarmProbability、そのカテゴリの HarmThreshold 設定を示します。これは、少なくとも 1 件の回答のブロックを解除するために必要な SafetySettings の最小変更を示します。

ブロックは、リクエストの SafetySettings(または API のデフォルトの SafetySettings)によって構成されます。

safetyFeedback[] object (SafetyFeedback)

コンテンツのフィルタリングに関連する安全性に関するフィードバックを返します。

TextCompletion

モデルから返された出力テキスト。

JSON 表現
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
<ph type="x-smartling-placeholder">
</ph> フィールド
output string

出力専用。モデルから返された生成テキスト。

safetyRatings[] object (SafetyRating)

レスポンスの安全性に関する評価。

カテゴリごとに最大 1 つの評価を指定できます。

citationMetadata object (CitationMetadata)

出力専用。この TextCompletion でモデル生成の output の引用情報。

このフィールドには、output に含まれるすべてのテキストの帰属情報が入力されます。

SafetyFeedback

リクエスト全体の安全性に関するフィードバック。

安全性設定によって入力やレスポンスのコンテンツがブロックされている場合に、このフィールドが設定されます。SafetyFeedback は、すべての HarmCategory に存在するとは限りません。各 SafetyFeedback は、リクエストで使用される安全性設定と、結果を返すために許可される最小の HarmProbability を返します。

JSON 表現
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
<ph type="x-smartling-placeholder">
</ph> フィールド
rating object (SafetyRating)

コンテンツに基づいて評価された安全性評価。

setting object (SafetySetting)

安全性設定がリクエストに適用されました。

TextPrompt

プロンプトとしてモデルに与えられたテキスト。

このモデルは、この TextPrompt を使用してテキスト補完を生成します。

JSON 表現
{
  "text": string
}
<ph type="x-smartling-placeholder">
</ph> フィールド
text string

必須。プロンプト テキスト。