メソッド: models.generateText
入力メッセージからモデルのレスポンスを生成します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。補完の生成に使用する Model
または TunedModel
の名前。例: models/text-bison-001 tunedModels/sentence-translator-u3b7m 形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに渡される自由形式の入力テキスト。
プロンプトを与えると、モデルは入力テキストの完成として予測される TextCompletion レスポンスを生成します。
safetySettings[]
object (SafetySetting
)
省略可。安全でないコンテンツをブロックするための一意の SafetySetting
インスタンスのリスト。
GenerateTextRequest.prompt
と GenerateTextResponse.candidates
に適用されます。SafetyCategory
タイプごとに設定が複数あることはできません。API は、これらの設定で設定されたしきい値を満たさないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory
のデフォルト設定をオーバーライドします。リストに指定された特定の SafetyCategory
に SafetySetting
がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXICITY、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS がサポートされています。
stopSequences[]
string
出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。
temperature
number
省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.temperature
属性をご覧ください。
値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様で創造的な回答が生成されます。一方、値が 0.0 に近いほど、通常はモデルからより単純な回答が返されます。
candidateCount
integer
省略可。返す生成されたレスポンスの数。
この値は 1 ~ 8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。
maxOutputTokens
integer
省略可。候補に含めるトークンの最大数。
設定されていない場合、デフォルトは Model
仕様で指定された outputTokenLimit になります。
topP
number
省略可。サンプリングの際に考慮するトークンの累積確率の最大値。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_p
属性をご覧ください。
topK
integer
省略可。サンプリング時に考慮するトークンの最大数。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。デフォルトは 40 です。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_k
属性をご覧ください。
レスポンスの本文
成功した場合、レスポンスの本文には GenerateTextResponse
のインスタンスが含まれます。
メソッド: models.countTextTokens
テキストに対してモデルのトークン化ツールを実行し、トークン数を返します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。モデルのリソース名。これは、モデルが使用する ID として機能します。
この名前は、models.list
メソッドから返されたモデル名と一致する必要があります。
形式: models/{model}
形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに渡される自由形式の入力テキスト。
レスポンスの本文
models.countTextTokens
からのレスポンス。
prompt
のモデルの tokenCount
を返します。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
tokenCount
integer
model
が prompt
をトークン化するトークンの数。
常に正の値です。
JSON 表現 |
---|
{ "tokenCount": integer } |
メソッド: models.generateMessage
入力 MessagePrompt
に基づいてモデルからレスポンスを生成します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。使用するモデルの名前。
形式: name=models/{model}
。形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
prompt
object (MessagePrompt
)
必須。プロンプトとしてモデルに渡される構造化されたテキスト入力。
プロンプトを与えると、モデルは、ディスカッションの次のメッセージであると予測されるものを返します。
temperature
number
省略可。出力のランダム性を制御します。
値の範囲は [0.0,1.0]
です。1.0
に近い値を指定すると、より多様なレスポンスが生成されます。一方、0.0
に近い値を指定すると、通常、モデルからのレスポンスの驚き度が低くなります。
candidateCount
integer
省略可。生成されたレスポンス メッセージを返す数。
この値は [1, 8]
以上の値を指定してください。設定しない場合、デフォルトで 1
になります。
topP
number
省略可。サンプリングの際に考慮するトークンの累積確率の最大値。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
核サンプリングでは、確率の合計が topP
以上の最小のトークンセットが検討されます。
topK
integer
省略可。サンプリング時に考慮するトークンの最大数。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。
レスポンスの本文
モデルからのレスポンス。
これには、メッセージ候補と、時系列に並べられたメッセージ形式の会話履歴が含まれます。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
candidates[]
object (Message
)
モデルからの候補レスポンス メッセージ。
messages[]
object (Message
)
モデルで使用される会話履歴。
filters[]
object (ContentFilter
)
プロンプトとレスポンスのテキストのコンテンツ フィルタリング メタデータのセット。
これは、このレスポンスの候補をブロックした SafetyCategory
、ブロックをトリガーした最小の HarmProbability
、そのカテゴリの HarmThreshold 設定を示します。
JSON 表現 |
---|
{ "candidates": [ { object ( |
メソッド: models.countMessageTokens
文字列に対してモデルのトークン化ツールを実行し、トークン数を返します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。モデルのリソース名。これは、モデルが使用する ID として機能します。
この名前は、models.list
メソッドから返されたモデル名と一致する必要があります。
形式: models/{model}
形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
prompt
object (MessagePrompt
)
必須。トークン数を返すプロンプト。
レスポンスの本文
models.countMessageTokens
からのレスポンス。
prompt
のモデルの tokenCount
を返します。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
tokenCount
integer
model
が prompt
をトークン化するトークンの数。
常に正の値です。
JSON 表現 |
---|
{ "tokenCount": integer } |
メソッド: models.embedText
入力メッセージからモデルからエンベディングを生成します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。model=models/{model} の形式で使用するモデル名。形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
text
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。
メソッド: models.batchEmbedText
同期呼び出しで入力テキストを指定して、モデルから複数のエンベディングを生成します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。エンベディングの生成に使用する Model
の名前。例: models/embedding-gecko-001。形式は models/{model}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
texts[]
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。現在の上限は 100 テキストで、上限を超えるとエラーがスローされます。
requests[]
object (EmbedTextRequest
)
省略可。バッチのリクエストを埋め込みます。texts
または requests
のいずれかのみを設定できます。
レスポンスの本文
EmbedTextRequest に対するレスポンス。
成功した場合、レスポンスの本文には次の構造のデータが含まれます。
embeddings[]
object (Embedding
)
出力専用。入力テキストから生成されたエンベディング。
JSON 表現 |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
モデルからテキスト エンベディングを取得するリクエスト。
model
string
必須。model=models/{model} の形式で使用するモデル名。
text
string
省略可。モデルがエンベディングに変換する自由形式の入力テキスト。
JSON 表現 |
---|
{ "model": string, "text": string } |
メソッド: tunedModels.generateText
入力メッセージからモデルのレスポンスを生成します。
エンドポイント
投稿https: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
この URL は gRPC Transcoding 構文を使用します。
パスパラメータ
model
string
必須。補完の生成に使用する Model
または TunedModel
の名前。例: models/text-bison-001 tunedModels/sentence-translator-u3b7m 形式は tunedModels/{tunedmodel}
です。
リクエストの本文
リクエストの本文には、次の構造のデータが含まれます。
prompt
object (TextPrompt
)
必須。プロンプトとしてモデルに渡される自由形式の入力テキスト。
プロンプトを与えると、モデルは入力テキストの完成として予測される TextCompletion レスポンスを生成します。
safetySettings[]
object (SafetySetting
)
省略可。安全でないコンテンツをブロックするための一意の SafetySetting
インスタンスのリスト。
GenerateTextRequest.prompt
と GenerateTextResponse.candidates
に適用されます。SafetyCategory
タイプごとに設定が複数あることはできません。API は、これらの設定で設定されたしきい値を満たさないプロンプトとレスポンスをブロックします。このリストは、safetySettings で指定された各 SafetyCategory
のデフォルト設定をオーバーライドします。リストに指定された特定の SafetyCategory
に SafetySetting
がない場合、API はそのカテゴリのデフォルトの安全性設定を使用します。テキスト サービスでは、有害カテゴリ HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXICITY、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDICAL、HARM_CATEGORY_DANGEROUS がサポートされています。
stopSequences[]
string
出力の生成を停止する一連の文字シーケンス(最大 5 つ)。指定すると、停止シーケンスが最初に出現した時点で API が停止します。停止シーケンスはレスポンスには含まれません。
temperature
number
省略可。出力のランダム性を制御します。注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.temperature
属性をご覧ください。
値の範囲は [0.0,1.0] です。値が 1.0 に近いほど、より多様で創造的な回答が生成されます。一方、値が 0.0 に近いほど、通常はモデルからより単純な回答が返されます。
candidateCount
integer
省略可。返す生成されたレスポンスの数。
この値は 1 ~ 8 の範囲で指定してください。設定しない場合、デフォルトで 1 になります。
maxOutputTokens
integer
省略可。候補に含めるトークンの最大数。
設定されていない場合、デフォルトは Model
仕様で指定された outputTokenLimit になります。
topP
number
省略可。サンプリングの際に考慮するトークンの累積確率の最大値。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
トークンは、割り当てられた確率に基づいて並べ替えられ、最も可能性の高いトークンのみが考慮されます。トップ K サンプリングでは、考慮するトークンの最大数を直接制限します。一方、Nucleus サンプリングでは、累積確率に基づいてトークンの数を制限します。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_p
属性をご覧ください。
topK
integer
省略可。サンプリング時に考慮するトークンの最大数。
このモデルでは、Top-k サンプリングと Nucleus サンプリングが組み合わせて使用されます。
Top-k サンプリングでは、最も確率の高い topK
個のトークンのセットが考慮されます。デフォルトは 40 です。
注: デフォルト値はモデルによって異なります。getModel
関数から返された Model
の Model.top_k
属性をご覧ください。
レスポンスの本文
成功した場合、レスポンスの本文には GenerateTextResponse
のインスタンスが含まれます。
ContentFilter
単一のリクエストの処理に関連付けられたコンテンツ フィルタリング メタデータ。
ContentFilter には、理由と、オプションの補足文字列が含まれます。理由は指定されていない場合があります。
reason
enum (BlockedReason
)
リクエストの処理中にコンテンツがブロックされた理由。
message
string
フィルタリング動作を詳しく説明する文字列。
JSON 表現 |
---|
{
"reason": enum ( |
BlockedReason
コンテンツがブロックされた理由のリスト。
列挙型 | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ブロックの理由が指定されていません。 |
SAFETY |
コンテンツが安全性設定によってブロックされました。 |
OTHER |
コンテンツがブロックされましたが、理由は分類されていません。 |
メッセージ
構造化テキストの基本単位。
Message
には、author
と Message
の content
が含まれます。
author
は、メッセージがテキストとしてモデルにフィードされるときにタグ付けするために使用されます。
content
string
必須。構造化 Message
のテキスト コンテンツ。
citationMetadata
object (CitationMetadata
)
出力専用。この Message
内のモデル生成 content
の引用情報。
この Message
がモデルの出力として生成された場合、このフィールドには content
に含まれるテキストのアトリビューション情報が入力される場合があります。このフィールドは出力でのみ使用されます。
JSON 表現 |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
プロンプトとしてモデルに渡される構造化された入力テキスト。
MessagePrompt
には、会話のコンテキストを提供する構造化されたフィールドセット、さまざまな方法で応答するようにモデルを準備するユーザー入力/モデル出力メッセージペアの例、会話履歴、またはユーザーとモデルとの間で交わされた会話のターンを示すメッセージのリストが含まれます。
context
string
省略可。有効な回答を得るために最初にモデルに提供する必要のあるテキスト。
空でない場合、この context
は examples
と messages
の前にモデルに渡されます。context
を使用する場合は、連続性を維持するために、すべてのリクエストで指定してください。
このフィールドには、コンテキストを提供して回答を導くために、モデルへのプロンプトの説明を指定できます。例: 「フレーズを英語からフランス語に翻訳してください」や「文から感情を「幸せ」、「悲しい」、「どちらでもない」に分類してください」など。
入力サイズの合計がモデルの inputTokenLimit
を超えて入力リクエストが切り捨てられた場合、このフィールドに含まれる内容がメッセージ履歴よりも優先されます。
examples[]
object (Example
)
省略可。モデルが生成すべきものの例。
これには、ユーザー入力と、モデルがエミュレートする必要があるレスポンスの両方が含まれます。
これらの examples
は、messages
の履歴よりも優先される点を除き、会話メッセージと同じように扱われます。入力の合計サイズがモデルの inputTokenLimit
を超えると、入力は切り捨てられます。アイテムは examples
の前に messages
から削除されます。
messages[]
object (Message
)
必須。最近の会話履歴のスナップショット(時系列で並べ替えられています)。
2 人の著者による交代制。
入力の合計サイズがモデルの inputTokenLimit
を超えると、入力は切り捨てられます。最も古いアイテムが messages
から削除されます。
例
GenerateTextResponse
候補の完成形を含む、モデルからのレスポンス。
candidates[]
object (TextCompletion
)
モデルからの候補レスポンス。
filters[]
object (ContentFilter
)
プロンプトとレスポンス テキストのコンテンツ フィルタリング メタデータのセット。
これは、このレスポンスの候補をブロックした SafetyCategory
、ブロックをトリガーした最小の HarmProbability
、そのカテゴリの HarmThreshold 設定を示します。これは、少なくとも 1 つのレスポンスをブロック解除するために必要な SafetySettings
の最小変更を示します。
ブロックは、リクエストの SafetySettings
(または API のデフォルトの SafetySettings
)によって構成されます。
safetyFeedback[]
object (SafetyFeedback
)
コンテンツ フィルタリングに関連する安全性に関するフィードバックを返します。
JSON 表現 |
---|
{ "candidates": [ { object ( |
TextCompletion
モデルから返された出力テキスト。
output
string
出力専用。モデルから返された生成テキスト。
safetyRatings[]
object (SafetyRating
)
回答の安全性に関する評価。
カテゴリごとに 1 つの評価のみが存在します。
citationMetadata
object (CitationMetadata
)
出力専用。この TextCompletion
内のモデル生成 output
の引用情報。
このフィールドには、output
に含まれるテキストのアトリビューション情報が入力される場合があります。
JSON 表現 |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
リクエスト全体の安全性に関するフィードバック。
このフィールドには、安全設定により入力またはレスポンスのコンテンツがブロックされた場合に入力されます。すべての HarmCategory に SafetyFeedback が存在するとは限りません。各 SafetyFeedback は、リクエストで使用された安全設定と、結果を返すために許可される最小の HarmProbability を返します。
rating
object (SafetyRating
)
コンテンツから評価された安全性能総合評価。
setting
object (SafetySetting
)
リクエストに適用されたセーフティ設定。
JSON 表現 |
---|
{ "rating": { object ( |