روش: models.generateText
یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextپارامترهای مسیر
string
model
مورد نیاز. نام Model
یا TunedModel
که برای ایجاد تکمیل استفاده می شود. مثالها: models/text-bison-001 tunedModels/sentence-translator-u3b7m به شکل models/{model}
است.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
prompt
object ( TextPrompt
)
مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.
با توجه به یک اعلان، مدل یک پاسخ TextCompletion ایجاد می کند که به عنوان تکمیل متن ورودی پیش بینی می کند.
safetySettings[]
object ( SafetySetting
)
اختیاری. فهرستی از نمونههای SafetySetting
منحصر به فرد برای مسدود کردن محتوای ناامن.
که در GenerateTextRequest.prompt
و GenerateTextResponse.candidates
اجرا می شود. برای هر نوع SafetyCategory
نباید بیش از یک تنظیم وجود داشته باشد. API هرگونه درخواست و پاسخی را که نتواند آستانه های تعیین شده توسط این تنظیمات را برآورده کند، مسدود می کند. این فهرست تنظیمات پیشفرض را برای هر SafetyCategory
مشخصشده در تنظیمات ایمنی لغو میکند. اگر هیچ SafetySetting
برای یک SafetyCategory
معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیشفرض برای آن دسته استفاده میکند. دستههای آسیب HARM_CATEGORY_DEROGATORY، HARM_CATEGORY_TOXICITY، HARM_CATEGORY_VIOLENCE، HARM_CATEGORY_SEXUAL، HARM_CATEGORY_MEDICAL، HARM_CATEGORY_DANGEROUS در سرویس متن پشتیبانی میشوند.
string
stopSequences[]
مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک توالی توقف متوقف خواهد شد. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.
number
temperature
اختیاری. تصادفی بودن خروجی را کنترل می کند. توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.temperature
Model
که تابع getModel
را برگردانده است، مراجعه کنید.
مقادیر می توانند از [0.0،1.0]، شامل متغیر باشند. یک مقدار نزدیکتر به 1.0 پاسخهایی را تولید میکند که متنوعتر و خلاقانهتر هستند، در حالی که مقدار نزدیکتر به 0.0 معمولاً منجر به پاسخهای سادهتر از مدل میشود.
candidateCount
integer
اختیاری. تعداد پاسخ های تولید شده برای بازگشت.
این مقدار باید بین [1، 8]، شامل باشد. اگر تنظیم نشود، به طور پیشفرض روی ۱ خواهد بود.
maxOutputTokens
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد گنجانده شود.
اگر تنظیم نشود، به طور پیشفرض روی outputTokenLimit مشخص شده در مشخصات Model
خواهد بود.
number
topP
اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونهبرداری Top-k مستقیماً حداکثر تعداد توکنهای مورد نظر را محدود میکند، در حالی که نمونهبرداری هستهای تعداد توکنها را بر اساس احتمال تجمعی محدود میکند.
توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.top_p
از Model
تابع getModel
را برگردانده است، نگاه کنید.
topK
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK
را در نظر می گیرد. پیش فرض 40 است.
توجه: مقدار پیشفرض بر اساس مدل متفاوت است، به ویژگی Model.top_k
Model
که تابع getModel
را برگردانده است، نگاه کنید.
بدن پاسخگو
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateTextResponse
است.
روش: models.countTextTokens
توکنایزر یک مدل را روی یک متن اجرا می کند و تعداد توکن ها را برمی گرداند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensپارامترهای مسیر
string
model
مورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.
این نام باید با نام مدلی که با روش models.list
برگردانده شده است مطابقت داشته باشد.
قالب: models/{model}
شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
prompt
object ( TextPrompt
)
مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.
بدن پاسخگو
پاسخی از models.countTextTokens
.
tokenCount
مدل را برای prompt
باز می گرداند.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
tokenCount
integer
تعداد نشانه هایی که model
prompt
را به آنها توکن می کند.
همیشه غیر منفی.
نمایندگی JSON |
---|
{ "tokenCount": integer } |
روش: models.generateMessage
پاسخی را از مدل با یک MessagePrompt
ورودی ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageپارامترهای مسیر
string
model
مورد نیاز. نام مدل مورد استفاده
قالب: name=models/{model}
. شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
prompt
object ( MessagePrompt
)
مورد نیاز. ورودی متنی ساختاریافته به عنوان یک اعلان به مدل داده می شود.
با دادن یک اعلان، مدل همان چیزی را که پیشبینی میکند پیام بعدی در بحث است، برمیگرداند.
number
temperature
اختیاری. تصادفی بودن خروجی را کنترل می کند.
مقادیر می توانند بیش از [0.0,1.0]
، شامل محدوده باشند. یک مقدار نزدیک به 1.0
پاسخ هایی را ایجاد می کند که متنوع تر هستند، در حالی که مقدار نزدیک به 0.0
معمولاً منجر به پاسخ های شگفت انگیز کمتری از مدل می شود.
candidateCount
integer
اختیاری. تعداد پیام های پاسخ تولید شده برای بازگشت.
این مقدار باید بین [1, 8]
باشد. اگر تنظیم نشود، به طور پیشفرض روی 1
خواهد بود.
number
topP
اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
نمونه برداری هسته کوچکترین مجموعه ای از نشانه ها را در نظر می گیرد که مجموع احتمال آنها حداقل topP
باشد.
topK
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK
را در نظر می گیرد.
بدن پاسخگو
پاسخ از مدل
این شامل پیامهای نامزد و سابقه مکالمه در قالب پیامهای مرتبشده زمانی میشود.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
candidates[]
object ( Message
)
پیام های پاسخ کاندیدا از مدل.
messages[]
object ( Message
)
تاریخچه مکالمه استفاده شده توسط مدل.
filters[]
object ( ContentFilter
)
مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.
این نشان میدهد که کدام SafetyCategory
(های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability
که یک بلوک را راهاندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است.
نمایندگی JSON |
---|
{ "candidates": [ { object ( |
روش: models.countMessageTokens
توکنایزر یک مدل را روی یک رشته اجرا می کند و تعداد توکن ها را برمی گرداند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensپارامترهای مسیر
string
model
مورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.
این نام باید با نام مدلی که با روش models.list
برگردانده شده است مطابقت داشته باشد.
قالب: models/{model}
شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
prompt
object ( MessagePrompt
)
مورد نیاز. درخواستی که تعداد توکن آن باید برگردانده شود.
بدن پاسخگو
پاسخی از models.countMessageTokens
.
tokenCount
مدل را برای prompt
باز می گرداند.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
tokenCount
integer
تعداد نشانه هایی که model
prompt
را به آنها توکن می کند.
همیشه غیر منفی.
نمایندگی JSON |
---|
{ "tokenCount": integer } |
روش: models.embedText
یک جاسازی از مدل با یک پیام ورودی ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextپارامترهای مسیر
string
model
مورد نیاز. نام مدل برای استفاده با قالب model=models/{model}. شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
string
text
اختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.
روش: models.batchEmbedText
چندین جاسازی را از مدل متن ورودی داده شده در یک تماس همزمان ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextپارامترهای مسیر
string
model
مورد نیاز. نام Model
که برای ایجاد تعبیه استفاده می شود. مثالها: models/embedding-gecko-001 شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
texts[]
string
اختیاری. متون ورودی با فرم آزاد که مدل به یک جاسازی تبدیل می شود. حد فعلی 100 متن است که خطا روی آن پرتاب می شود.
requests[]
object ( EmbedTextRequest
)
اختیاری. جاسازی درخواستها برای دسته. فقط یکی از texts
یا requests
را می توان تنظیم کرد.
بدن پاسخگو
پاسخ به EmbedTextRequest.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
embeddings[]
object ( Embedding
)
فقط خروجی جاسازی های ایجاد شده از متن ورودی.
نمایندگی JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
درخواست دریافت جاسازی متن از مدل.
string
model
مورد نیاز. نام مدل برای استفاده با قالب model=models/{model}.
string
text
اختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.
نمایندگی JSON |
---|
{ "model": string, "text": string } |
روش: tunedModels.generateText
یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextپارامترهای مسیر
string
model
مورد نیاز. نام Model
یا TunedModel
که برای ایجاد تکمیل استفاده می شود. مثالها: models/text-bison-001 tunedModels/sentence-translator-u3b7m به شکل tunedModels/{tunedmodel}
است.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
prompt
object ( TextPrompt
)
مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.
با توجه به یک اعلان، مدل یک پاسخ TextCompletion ایجاد می کند که به عنوان تکمیل متن ورودی پیش بینی می کند.
safetySettings[]
object ( SafetySetting
)
اختیاری. فهرستی از نمونههای SafetySetting
منحصر به فرد برای مسدود کردن محتوای ناامن.
که در GenerateTextRequest.prompt
و GenerateTextResponse.candidates
اجرا می شود. برای هر نوع SafetyCategory
نباید بیش از یک تنظیم وجود داشته باشد. API هرگونه درخواست و پاسخی را که نتواند آستانه های تعیین شده توسط این تنظیمات را برآورده کند، مسدود می کند. این فهرست تنظیمات پیشفرض را برای هر SafetyCategory
مشخصشده در تنظیمات ایمنی لغو میکند. اگر هیچ SafetySetting
برای یک SafetyCategory
معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیشفرض برای آن دسته استفاده میکند. دستههای آسیب HARM_CATEGORY_DEROGATORY، HARM_CATEGORY_TOXICITY، HARM_CATEGORY_VIOLENCE، HARM_CATEGORY_SEXUAL، HARM_CATEGORY_MEDICAL، HARM_CATEGORY_DANGEROUS در سرویس متن پشتیبانی میشوند.
string
stopSequences[]
مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک توالی توقف متوقف خواهد شد. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.
number
temperature
اختیاری. تصادفی بودن خروجی را کنترل می کند. توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.temperature
Model
که تابع getModel
را برگردانده است، مراجعه کنید.
مقادیر می توانند از [0.0،1.0]، شامل متغیر باشند. یک مقدار نزدیکتر به 1.0 پاسخهایی را تولید میکند که متنوعتر و خلاقانهتر هستند، در حالی که مقدار نزدیکتر به 0.0 معمولاً منجر به پاسخهای سادهتر از مدل میشود.
candidateCount
integer
اختیاری. تعداد پاسخ های تولید شده برای بازگشت.
این مقدار باید بین [1، 8]، شامل باشد. اگر تنظیم نشود، به طور پیشفرض روی ۱ خواهد بود.
maxOutputTokens
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد گنجانده شود.
اگر تنظیم نشود، به طور پیشفرض روی outputTokenLimit مشخص شده در مشخصات Model
خواهد بود.
number
topP
اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونهبرداری Top-k مستقیماً حداکثر تعداد توکنهای مورد نظر را محدود میکند، در حالی که نمونهبرداری هستهای تعداد توکنها را بر اساس احتمال تجمعی محدود میکند.
توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.top_p
از Model
تابع getModel
را برگردانده است، نگاه کنید.
topK
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK
را در نظر می گیرد. پیش فرض 40 است.
توجه: مقدار پیشفرض بر اساس مدل متفاوت است، به ویژگی Model.top_k
Model
که تابع getModel
را برگردانده است، نگاه کنید.
بدن پاسخگو
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateTextResponse
است.
ContentFilter
فیلتر کردن فراداده محتوا مرتبط با پردازش یک درخواست واحد.
ContentFilter حاوی یک دلیل و یک رشته پشتیبانی اختیاری است. دلیل ممکن است نامشخص باشد.
reason
enum ( BlockedReason
)
دلیل مسدود شدن محتوا در طول پردازش درخواست.
string
message
رشته ای که رفتار فیلتر کردن را با جزئیات بیشتری توصیف می کند.
نمایندگی JSON |
---|
{
"reason": enum ( |
BlockedReason
فهرستی از دلایلی که ممکن است محتوا مسدود شده باشد.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED | دلیل مسدود شده مشخص نشده است. |
SAFETY | محتوا توسط تنظیمات ایمنی مسدود شد. |
OTHER | محتوا مسدود شد، اما دلیل آن دسته بندی نشده است. |
جاسازی
فهرستی از شناورها که نشان دهنده جاسازی هستند.
value[]
number
مقادیر تعبیه شده
نمایندگی JSON |
---|
{ "value": [ number ] } |
پیام
واحد پایه متن ساخت یافته
یک Message
شامل author
و content
Message
است.
author
برای برچسب گذاری پیام ها زمانی که به مدل به عنوان متن داده می شود استفاده می شود.
string
content
مورد نیاز. محتوای متن Message
ساختاریافته.
citationMetadata
object ( CitationMetadata
)
فقط خروجی اطلاعات نقل قول برای content
تولید شده توسط مدل در این Message
.
اگر این Message
به عنوان خروجی از مدل ایجاد شده باشد، این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در content
پر شود. این فیلد فقط در خروجی استفاده می شود.
نمایندگی JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
تمام متن ورودی ساختاریافته به عنوان یک اعلان به مدل ارسال می شود.
MessagePrompt
شامل مجموعه ای ساختاریافته از فیلدها است که زمینه مکالمه را فراهم می کند، نمونه هایی از جفت پیام ورودی/خروجی کاربر که مدل را برای پاسخگویی به روش های مختلف آماده می کند، و تاریخچه مکالمه یا لیستی از پیام ها که چرخش های متناوب مکالمه را نشان می دهد. کاربر و مدل
string
context
اختیاری. متنی که باید ابتدا در اختیار مدل قرار گیرد تا پاسخ را زمین گیر کند.
اگر خالی نباشد، این context
ابتدا قبل از examples
و messages
به مدل داده می شود. هنگام استفاده از context
حتماً هر درخواستی را برای حفظ تداوم ارائه دهید.
این فیلد میتواند توصیفی از درخواست شما برای مدل باشد تا به ارائه زمینه و راهنمایی پاسخها کمک کند. مثالها: «عبارت را از انگلیسی به فرانسوی ترجمه کنید». یا "با توجه به بیانیه، احساس را به عنوان شاد، غمگین یا خنثی طبقه بندی کنید."
اگر اندازه ورودی کل از inputTokenLimit
مدل بیشتر شود و درخواست ورودی کوتاه شود، هر چیزی که در این قسمت گنجانده شده است بر تاریخچه پیام ارجحیت دارد.
examples[]
object ( Example
)
اختیاری. نمونه هایی از آنچه مدل باید تولید کند.
این شامل ورودی کاربر و پاسخی است که مدل باید از آن تقلید کند.
این examples
با پیامهای مکالمه یکسان برخورد میکنند به جز اینکه در messages
بر تاریخچه اولویت دارند: اگر اندازه ورودی کل از inputTokenLimit
مدل بیشتر شود، ورودی کوتاه میشود. موارد قبل از examples
از messages
حذف می شوند.
messages[]
object ( Message
)
مورد نیاز. یک عکس فوری از تاریخچه مکالمه اخیر به ترتیب زمانی مرتب شده است.
چرخش متناوب بین دو نویسنده.
اگر اندازه ورودی کل از inputTokenLimit
مدل بیشتر شود، ورودی کوتاه میشود: قدیمیترین موارد از messages
حذف میشوند.
مثال
یک مثال ورودی/خروجی که برای آموزش مدل استفاده می شود.
نشان می دهد که مدل چگونه باید پاسخ دهد یا پاسخ خود را قالب بندی کند.
input
object ( Message
)
مورد نیاز. نمونه ای از یک Message
ورودی از طرف کاربر.
output
object ( Message
)
مورد نیاز. نمونه ای از آنچه که مدل باید با توجه به ورودی خروجی دهد.
GenerateTextResponse
پاسخ از مدل، از جمله تکمیل نامزد.
candidates[]
object ( TextCompletion
)
پاسخ های کاندیدا از مدل.
filters[]
object ( ContentFilter
)
مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.
این نشان میدهد که کدام SafetyCategory
(های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability
که یک بلوک را راهاندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است. این نشان دهنده کوچکترین تغییر در SafetySettings
است که برای رفع انسداد حداقل 1 پاسخ ضروری است.
مسدود کردن توسط SafetySettings
در درخواست (یا SafetySettings
پیشفرض API) پیکربندی میشود.
safetyFeedback[]
object ( SafetyFeedback
)
هرگونه بازخورد ایمنی مربوط به فیلتر محتوا را برمیگرداند.
نمایندگی JSON |
---|
{ "candidates": [ { object ( |
تکمیل متن
متن خروجی برگردانده شده از یک مدل.
string
output
فقط خروجی متن تولید شده از مدل برگردانده شد.
safetyRatings[]
object ( SafetyRating
)
رتبه بندی برای ایمنی یک پاسخ.
حداکثر یک رتبه برای هر دسته وجود دارد.
citationMetadata
object ( CitationMetadata
)
فقط خروجی اطلاعات نقل قول برای output
تولید شده توسط مدل در این TextCompletion
.
این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در output
پر شود.
نمایندگی JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
بازخورد ایمنی
بازخورد ایمنی برای کل درخواست
اگر محتوای موجود در ورودی و/یا پاسخ به دلیل تنظیمات ایمنی مسدود شده باشد، این فیلد پر می شود. SafetyFeedback ممکن است برای هر HarmCategory وجود نداشته باشد. هر SafetyFeedback تنظیمات ایمنی استفاده شده توسط درخواست و همچنین کمترین احتمال آسیبی را که باید برای برگرداندن نتیجه مجاز باشد، برمی گرداند.
rating
object ( SafetyRating
)
رتبه بندی ایمنی از روی محتوا ارزیابی شد.
setting
object ( SafetySetting
)
تنظیمات ایمنی برای درخواست اعمال می شود.
نمایندگی JSON |
---|
{ "rating": { object ( |