メソッド: models.generateText
指定された入力メッセージで、モデルからレスポンスを生成します。
エンドポイント
<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextパスパラメータ
model
string
必須。補完の生成に使用する Model
または TunedModel
の名前。例: models/text-bison-001 tunedModels/sentence-translator-u3b7m 形式は models/{model}
です。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。
プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。
safetySettings[]
object (SafetySetting
)
省略可。安全でないコンテンツをブロックするための一意の SafetySetting
インスタンスのリスト。
GenerateTextRequest.prompt
と GenerateTextResponse.candidates
に適用されます。SafetyCategory
タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory
のデフォルト設定をオーバーライドします。リストに指定された SafetyCategory
に SafetySetting
がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。
stopSequences[]
string
出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。
temperature
number
省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.temperature
属性をご覧ください。
値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様でクリエイティブなレスポンスが生成されます。一方、0.0 に近い値ほど、モデルからのレスポンスはより明快になります。
candidateCount
integer
省略可。返す生成されたレスポンスの数。
この値は 1~8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。
maxOutputTokens
integer
省略可。候補に含めるトークンの最大数。
設定しない場合、Model
仕様で指定された outputTokenLimit がデフォルトで使用されます。
topP
number
省略可。サンプリング時に考慮すべきトークンの最大累積確率。
このモデルでは、トップ K サンプリングとニュークレウス サンプリングが組み合わされています。
トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_p
属性をご覧ください。
topK
integer
省略可。サンプリング時に考慮すべきトークンの最大数。
このモデルでは、トップ K サンプリングと核サンプリングが組み合わされています。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。デフォルトは 40 です。
注: デフォルト値はモデルによって異なります。getModel
関数を返した Model
の Model.top_k
属性をご覧ください。
レスポンスの本文
成功した場合、レスポンスの本文には GenerateTextResponse
のインスタンスが含まれます。
メソッド: models.countTextTokens
テキストに対してモデルのトークン化ツールを実行し、トークン数を返します。
エンドポイント
<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensパスパラメータ
model
string
必須。モデルのリソース名。これは、モデルが使用する ID として機能します。
この名前は、models.list
メソッドから返されるモデル名と一致する必要があります。
形式: models/{model}
形式は models/{model}
です。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。
レスポンスの本文
models.countTextTokens
からのレスポンス。
prompt
のモデルの tokenCount
を返します。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
tokenCount
integer
model
が prompt
をトークン化するトークンの数。
常に正の値です。
JSON 表現 |
---|
{ "tokenCount": integer } |
メソッド: models.generateMessage
入力 MessagePrompt
が与えられたときに、モデルからレスポンスを生成します。
エンドポイント
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageパスパラメータ
model
string
必須。使用するモデルの名前。
形式: name=models/{model}
。これは models/{model}
の形式になります。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">prompt
object (MessagePrompt
)
必須。プロンプトとしてモデルに与えられた構造化テキスト入力。
プロンプトを受け取ると、モデルはディスカッションの次のメッセージであると予測したものを返します。
temperature
number
省略可。出力のランダム性を制御します。
値の範囲は [0.0,1.0]
です。1.0
に近い値を指定すると、より多様なレスポンスが生成されます。一方、0.0
に近い値を指定すると、通常、モデルからのレスポンスの驚き度が低くなります。
candidateCount
integer
省略可。生成されたレスポンス メッセージの返却数。
この値は [1, 8]
の範囲内で指定してください。設定しない場合、デフォルトで 1
になります。
topP
number
省略可。サンプリング時に考慮すべきトークンの最大累積確率。
このモデルでは、Top-K サンプリングと核サンプリングの組み合わせが使用されます。
核サンプリングでは、確率の合計が topP
以上の最小のトークンセットが検討されます。
topK
integer
省略可。サンプリング時に考慮するトークンの最大数。
このモデルでは、トップ K サンプリングとニュークレウス サンプリングの組み合わせを使用します。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。
レスポンスの本文
モデルからのレスポンス。
これには、メッセージ候補と、時系列に並べられたメッセージ形式の会話履歴が含まれます。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
candidates[]
object (Message
)
モデルからの候補レスポンス メッセージ。
messages[]
object (Message
)
モデルが使用する会話履歴。
filters[]
object (ContentFilter
)
プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。
これは、このレスポンスから候補をブロックした SafetyCategory
、ブロックをトリガーした最小の HarmProbability
、そのカテゴリの HarmThreshold 設定を示します。
JSON 表現 |
---|
{ "candidates": [ { object ( |
メソッド: models.countMessageTokens
文字列に対してモデルのトークン化ツールを実行し、トークン数を返します。
エンドポイント
<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensパスパラメータ
model
string
必須。モデルのリソース名。これは、モデルが使用する ID として機能します。
この名前は、models.list
メソッドから返されるモデル名と一致する必要があります。
形式: models/{model}
形式は models/{model}
です。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">prompt
object (MessagePrompt
)
必須。トークン数を返すプロンプト。
レスポンスの本文
models.countMessageTokens
からのレスポンス。
prompt
に対するモデルの tokenCount
を返します。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
tokenCount
integer
model
が prompt
をトークン化するトークンの数。
常に正の値です。
JSON 表現 |
---|
{ "tokenCount": integer } |
メソッド: models.embedText
入力メッセージからモデルからエンベディングを生成します。
エンドポイント
<ph type="x-smartling-placeholder"></ph> 投稿 <ph type="x-smartling-placeholder"></ph> https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextパスパラメータ
model
string
必須。使用するモデル名(model=models/{model} 形式)。形式は models/{model}
です。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">text
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。
メソッド: models.batchEmbedText
- エンドポイント
- パスパラメータ
- リクエスト本文
<ph type="x-smartling-placeholder">
- </ph>
- JSON 表現
- レスポンスの本文
<ph type="x-smartling-placeholder">
- </ph>
- JSON 表現
- 認可スコープ
- EmbedTextRequest
同期呼び出しで入力テキストが指定されたモデルから、複数のエンベディングを生成します。
エンドポイント
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextパスパラメータ
model
string
必須。エンベディングの生成に使用する Model
の名前。例: models/embedding-gecko-001。形式は models/{model}
です。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
texts[]
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。現在の上限は 100 テキストで、上限を超えるとエラーがスローされます。
requests[]
object (EmbedTextRequest
)
省略可。バッチの埋め込みリクエスト。texts
または requests
のいずれかのみを設定できます。
レスポンスの本文
EmbedTextRequest に対するレスポンス。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
embeddings[]
object (Embedding
)
出力専用。入力テキストから生成されたエンベディング。
JSON 表現 |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
モデルからテキスト エンベディングを取得するリクエスト。
model
string
必須。model=models/{model} の形式で使用するモデル名。
text
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。
JSON 表現 |
---|
{ "model": string, "text": string } |
メソッド: tunedModels.generateText
入力メッセージに基づいてモデルからレスポンスを生成します。
エンドポイント
post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextパスパラメータ
model
string
必須。補完の生成に使用する Model
または TunedModel
の名前。例: models/text-bison-001tuningModels/sentence-translator-u3b7m。tunedModels/{tunedmodel}
という形式になります。
リクエスト本文
リクエストの本文には、次の構造のデータが含まれます。
<ph type="x-smartling-placeholder">prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに与えられる自由形式の入力テキスト。
プロンプトを受け取ると、モデルは、入力テキストの完成として予測する TextComplete レスポンスを生成します。
safetySettings[]
object (SafetySetting
)
省略可。安全でないコンテンツをブロックするための一意の SafetySetting
インスタンスのリスト。
GenerateTextRequest.prompt
と GenerateTextResponse.candidates
に適用されます。SafetyCategory
タイプごとに複数の設定を指定することはできません。API は、これらの設定で設定されたしきい値を満たしていないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory
のデフォルト設定をオーバーライドします。リストに指定された SafetyCategory
に SafetySetting
がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXIcity、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS をサポートしています。
stopSequences[]
string
出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。
temperature
number
省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.temperature
属性をご覧ください。
値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様でクリエイティブなレスポンスが生成されます。一方、0.0 に近い値ほど、モデルからのレスポンスはより明快になります。
candidateCount
integer
省略可。返す生成されたレスポンスの数。
この値は 1~8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。
maxOutputTokens
integer
省略可。候補に含めるトークンの最大数。
設定しない場合、Model
仕様で指定された outputTokenLimit がデフォルトで使用されます。
topP
number
省略可。サンプリング時に考慮すべきトークンの最大累積確率。
このモデルでは、トップ K サンプリングとニュークレウス サンプリングが組み合わされています。
トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_p
属性をご覧ください。
topK
integer
省略可。サンプリング時に考慮すべきトークンの最大数。
このモデルでは、トップ K サンプリングと核サンプリングが組み合わされています。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。デフォルトは 40 です。
注: デフォルト値はモデルによって異なります。getModel
関数を返した Model
の Model.top_k
属性をご覧ください。
レスポンスの本文
成功した場合、レスポンスの本文には GenerateTextResponse
のインスタンスが含まれます。
ContentFilter
単一のリクエストの処理に関連するコンテンツ フィルタリングのメタデータ。
ContentFilter には、理由と、オプションのサポート文字列が含まれます。理由は不明でもかまいません。
reason
enum (BlockedReason
)
リクエストの処理中にコンテンツがブロックされた理由。
message
string
フィルタリング動作を詳しく説明する文字列。
JSON 表現 |
---|
{
"reason": enum ( |
BlockedReason
コンテンツがブロックされた理由の一覧。
列挙型 | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ブロックされた理由が指定されていません。 |
SAFETY |
コンテンツが安全性設定によってブロックされました。 |
OTHER |
コンテンツはブロックされましたが、理由は不明です。 |
メッセージ
構造化テキストの基本単位。
Message
には、Message
の author
と content
が含まれます。
author
は、メッセージがテキストとしてモデルにフィードされるときにタグ付けするために使用されます。
content
string
必須。構造化された Message
のテキスト コンテンツ。
citationMetadata
object (CitationMetadata
)
出力専用。この Message
のモデル生成の content
の引用情報。
この Message
がモデルの出力として生成された場合、このフィールドには content
に含まれるテキストのアトリビューション情報が入力される場合があります。このフィールドは出力でのみ使用されます。
JSON 表現 |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
プロンプトとしてモデルに渡される構造化された入力テキスト。
MessagePrompt
には、会話のコンテキストを提供する構造化されたフィールドセット、さまざまな方法で応答するようにモデルを準備するユーザー入力 / モデル出力メッセージペアの例、会話履歴、またはユーザーとモデルとの会話の交代ターンを表すメッセージのリストが含まれます。
context
string
省略可。有効な回答を得るために最初にモデルに提供する必要のあるテキスト。
空でない場合、この context
が、examples
と messages
の前にモデルに与えられます。context
を使用する場合は、継続性を維持するため、すべてのリクエストに指定してください。
このフィールドには、コンテキストを提供して回答を導くために、モデルに送信するプロンプトの説明を指定できます。例: 「このフレーズを英語からフランス語に翻訳して」または「発言があったら、感情を幸せ、悲しい、中立的に分類してください」
入力サイズの合計がモデルの inputTokenLimit
を超えて入力リクエストが切り捨てられた場合、このフィールドに含まれる内容がメッセージ履歴よりも優先されます。
examples[]
object (Example
)
省略可。モデルが生成する内容の例。
これには、ユーザー入力と、モデルがエミュレートする必要があるレスポンスの両方が含まれます。
これらの examples
は、messages
の履歴よりも優先される点を除き、会話メッセージと同じように扱われます。入力の合計サイズがモデルの inputTokenLimit
を超えると、入力は切り捨てられます。アイテムは examples
の前に messages
から削除されます。
messages[]
object (Message
)
必須。最近の会話履歴が時系列で並べ替えられたスナップショット。
2 人の著者が交互に現れます。
入力の合計サイズがモデルの inputTokenLimit
を超えると、入力は切り捨てられます。最も古いアイテムが messages
から削除されます。
例
GenerateTextResponse
候補の完成形を含む、モデルからのレスポンス。
candidates[]
object (TextCompletion
)
モデルからの候補レスポンス。
filters[]
object (ContentFilter
)
プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。
これは、このレスポンスから候補をブロックした SafetyCategory
、ブロックをトリガーした最小の HarmProbability
、そのカテゴリの HarmThreshold 設定を示します。これは、少なくとも 1 件の回答のブロックを解除するために必要な SafetySettings
の最小変更を示します。
ブロックは、リクエストの SafetySettings
(または API のデフォルトの SafetySettings
)によって構成されます。
safetyFeedback[]
object (SafetyFeedback
)
コンテンツ フィルタリングに関連する安全性に関するフィードバックを返します。
JSON 表現 |
---|
{ "candidates": [ { object ( |
TextCompletion
モデルから返された出力テキスト。
output
string
出力専用。モデルから返された生成テキスト。
safetyRatings[]
object (SafetyRating
)
レスポンスの安全性に関する評価。
カテゴリごとに最大 1 つの評価を指定できます。
citationMetadata
object (CitationMetadata
)
出力専用。この TextCompletion
でモデル生成の output
の引用情報。
このフィールドには、output
に含まれるすべてのテキストの帰属情報が入力されます。
JSON 表現 |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
リクエスト全体の安全性に関するフィードバック。
安全性設定によって入力やレスポンスのコンテンツがブロックされている場合に、このフィールドが設定されます。SafetyFeedback は、すべての HarmCategory に存在するとは限りません。各 SafetyFeedback は、リクエストで使用される安全性設定と、結果を返すために許可される最小の HarmProbability を返します。
rating
object (SafetyRating
)
コンテンツから評価された安全性能総合評価。
setting
object (SafetySetting
)
安全性設定がリクエストに適用されました。
JSON 表現 |
---|
{ "rating": { object ( |