روش: models.generateText
یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateTextپارامترهای مسیر
string model مورد نیاز. نام Model یا TunedModel که برای ایجاد تکمیل استفاده می شود. مثالها: models/text-bison-001 tunedModels/sentence-translator-u3b7m به شکل models/{model} است. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
promptobject ( TextPrompt )مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.
با توجه به یک اعلان، مدل یک پاسخ TextCompletion ایجاد می کند که به عنوان تکمیل متن ورودی پیش بینی می کند.
safetySettings[]object ( SafetySetting ) اختیاری. فهرستی از نمونههای SafetySetting منحصر به فرد برای مسدود کردن محتوای ناامن.
 که در GenerateTextRequest.prompt و GenerateTextResponse.candidates اجرا می شود. برای هر نوع SafetyCategory نباید بیش از یک تنظیم وجود داشته باشد. API هرگونه درخواست و پاسخی را که نتواند آستانه های تعیین شده توسط این تنظیمات را برآورده کند، مسدود می کند. این فهرست تنظیمات پیشفرض را برای هر SafetyCategory مشخصشده در تنظیمات ایمنی لغو میکند. اگر هیچ SafetySetting برای یک SafetyCategory معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیشفرض برای آن دسته استفاده میکند. دستههای آسیب HARM_CATEGORY_DEROGATORY، HARM_CATEGORY_TOXICITY، HARM_CATEGORY_VIOLENCE، HARM_CATEGORY_SEXUAL، HARM_CATEGORY_MEDICAL، HARM_CATEGORY_DANGEROUS در سرویس متن پشتیبانی میشوند. 
string stopSequences[]مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک توالی توقف متوقف خواهد شد. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.
number temperature اختیاری. تصادفی بودن خروجی را کنترل می کند. توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.temperature Model تابع getModel را برگردانده است، مراجعه کنید.
مقادیر می توانند از [0.0،1.0]، شامل متغیر باشند. یک مقدار نزدیکتر به 1.0 پاسخهایی را تولید میکند که متنوعتر و خلاقانهتر هستند، در حالی که مقدار نزدیکتر به 0.0 معمولاً منجر به پاسخهای سادهتر از مدل میشود.
candidateCountintegerاختیاری. تعداد پاسخ های تولید شده برای بازگشت.
این مقدار باید بین [1، 8]، شامل باشد. اگر تنظیم نشود، به طور پیشفرض روی ۱ خواهد بود.
maxOutputTokensintegerاختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد گنجانده شود.
 اگر تنظیم نشود، به طور پیشفرض روی outputTokenLimit مشخص شده در مشخصات Model خواهد بود. 
number topPاختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونهبرداری Top-k مستقیماً حداکثر تعداد توکنهای مورد نظر را محدود میکند، در حالی که نمونهبرداری هستهای تعداد توکنها را بر اساس احتمال تجمعی محدود میکند.
 توجه: مقدار پیشفرض براساس مدل متفاوت است، به ویژگی Model.top_p از Model تابع getModel را برگردانده است، نگاه کنید. 
topKintegerاختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
 نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد. پیش فرض 40 است.
 توجه: مقدار پیشفرض بر اساس مدل متفاوت است، به ویژگی Model.top_k Model که تابع getModel را برگردانده است، نگاه کنید. 
بدن پاسخگو
 در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateTextResponse است. 
روش: models.countTextTokens
توکنایزر یک مدل را روی یک متن اجرا می کند و تعداد توکن ها را برمی گرداند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokensپارامترهای مسیر
string modelمورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.
 این نام باید با نام مدلی که با روش models.list برگردانده شده است مطابقت داشته باشد.
 قالب: models/{model} شکل models/{model} را میگیرد. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
promptobject ( TextPrompt )مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.
بدن پاسخگو
 پاسخی از models.countTextTokens .
 tokenCount مدل را برای prompt باز می گرداند.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
tokenCountinteger تعداد نشانه هایی که model prompt را به آنها توکن می کند.
همیشه غیر منفی.
| نمایندگی JSON | 
|---|
| { "tokenCount": integer } | 
روش: models.generateMessage
 پاسخی را از مدل با یک MessagePrompt ورودی ایجاد می کند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessageپارامترهای مسیر
string modelمورد نیاز. نام مدل مورد استفاده
 قالب: name=models/{model} . شکل models/{model} را میگیرد. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
promptobject ( MessagePrompt )مورد نیاز. ورودی متنی ساختاریافته به عنوان یک اعلان به مدل داده می شود.
با دادن یک اعلان، مدل همان چیزی را که پیشبینی میکند پیام بعدی در بحث است، برمیگرداند.
number temperatureاختیاری. تصادفی بودن خروجی را کنترل می کند.
 مقادیر می توانند بیش از [0.0,1.0] ، شامل محدوده باشند. یک مقدار نزدیک به 1.0 پاسخ هایی را ایجاد می کند که متنوع تر هستند، در حالی که مقدار نزدیک به 0.0 معمولاً منجر به پاسخ های شگفت انگیز کمتری از مدل می شود. 
candidateCountintegerاختیاری. تعداد پیام های پاسخ تولید شده برای بازگشت.
 این مقدار باید بین [1, 8] ، شامل باشد. اگر تنظیم نشود، به طور پیشفرض روی 1 خواهد بود. 
number topPاختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
 نمونه برداری هسته کوچکترین مجموعه ای از نشانه ها را در نظر می گیرد که مجموع احتمال آنها حداقل topP باشد. 
topKintegerاختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.
 نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد. 
بدن پاسخگو
پاسخ از مدل
این شامل پیامهای نامزد و سابقه مکالمه در قالب پیامهای مرتبشده زمانی میشود.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
candidates[]object ( Message )پیام های پاسخ کاندیدا از مدل.
messages[]object ( Message )تاریخچه مکالمه استفاده شده توسط مدل.
filters[]object ( ContentFilter )مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.
 این نشان میدهد که کدام SafetyCategory (های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability که یک بلوک را راهاندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است. 
| نمایندگی JSON | 
|---|
| { "candidates": [ { object ( | 
روش: models.countMessageTokens
توکنایزر یک مدل را روی یک رشته اجرا می کند و تعداد توکن ها را برمی گرداند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokensپارامترهای مسیر
string modelمورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.
 این نام باید با نام مدلی که با روش models.list برگردانده شده است مطابقت داشته باشد.
 قالب: models/{model} شکل models/{model} را میگیرد. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
promptobject ( MessagePrompt )مورد نیاز. درخواستی که تعداد توکن آن باید برگردانده شود.
بدن پاسخگو
 پاسخی از models.countMessageTokens .
 tokenCount مدل را برای prompt باز می گرداند.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
tokenCountinteger تعداد نشانه هایی که model prompt را به آنها توکن می کند.
همیشه غیر منفی.
| نمایندگی JSON | 
|---|
| { "tokenCount": integer } | 
روش: models.embedText
یک جاسازی از مدل با یک پیام ورودی ایجاد می کند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedTextپارامترهای مسیر
string model مورد نیاز. نام مدل برای استفاده با قالب model=models/{model}. شکل models/{model} را میگیرد. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
string textاختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.
روش: models.batchEmbedText
چندین جاسازی را از مدل متن ورودی داده شده در یک تماس همزمان ایجاد می کند.
نقطه پایانی
پستhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedTextپارامترهای مسیر
string model مورد نیاز. نام Model که برای ایجاد تعبیه استفاده می شود. مثالها: models/embedding-gecko-001 شکل models/{model} را میگیرد. 
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
texts[]stringاختیاری. متون ورودی با فرم آزاد که مدل به یک جاسازی تبدیل می شود. حد فعلی 100 متن است که خطا روی آن پرتاب می شود.
requests[]object ( EmbedTextRequest ) اختیاری. جاسازی درخواستها برای دسته فقط یکی از texts یا requests می توان تنظیم کرد. 
بدن پاسخگو
پاسخ به EmbedTextRequest.
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:
embeddings[]object ( Embedding )فقط خروجی جاسازی های ایجاد شده از متن ورودی.
| نمایندگی JSON | 
|---|
| {
  "embeddings": [
    {
      object ( | 
EmbedTextRequest
درخواست دریافت جاسازی متن از مدل.
string modelمورد نیاز. نام مدل برای استفاده با قالب model=models/{model}.
string textاختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.
| نمایندگی JSON | 
|---|
| { "model": string, "text": string } | 
ContentFilter
فیلتر کردن فراداده محتوا مرتبط با پردازش یک درخواست واحد.
ContentFilter حاوی یک دلیل و یک رشته پشتیبانی اختیاری است. دلیل ممکن است نامشخص باشد.
reasonenum ( BlockedReason )دلیل مسدود شدن محتوا در طول پردازش درخواست.
string messageرشته ای که رفتار فیلتر کردن را با جزئیات بیشتری توصیف می کند.
| نمایندگی JSON | 
|---|
| {
  "reason": enum ( | 
BlockedReason
فهرستی از دلایلی که ممکن است محتوا مسدود شده باشد.
| Enums | |
|---|---|
| BLOCKED_REASON_UNSPECIFIED | دلیل مسدود شده مشخص نشده است. | 
| SAFETY | محتوا توسط تنظیمات ایمنی مسدود شد. | 
| OTHER | محتوا مسدود شد، اما دلیل آن دسته بندی نشده است. | 
جاسازی
فهرستی از شناورها که نشان دهنده جاسازی هستند.
value[]numberمقادیر تعبیه شده
| نمایندگی JSON | 
|---|
| { "value": [ number ] } | 
پیام
واحد پایه متن ساخت یافته
 یک Message شامل author و content Message است.
 author برای برچسب گذاری پیام ها زمانی که به مدل به عنوان متن داده می شود استفاده می شود.
string content مورد نیاز. محتوای متن Message ساختاریافته. 
citationMetadataobject ( CitationMetadata ) فقط خروجی اطلاعات نقل قول برای content تولید شده توسط مدل در این Message .
 اگر این Message به عنوان خروجی از مدل ایجاد شده باشد، این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در content پر شود. این فیلد فقط در خروجی استفاده می شود. 
| نمایندگی JSON | 
|---|
| {
  "author": string,
  "content": string,
  "citationMetadata": {
    object ( | 
MessagePrompt
تمام متن ورودی ساختاریافته به عنوان یک اعلان به مدل ارسال می شود.
 MessagePrompt شامل مجموعهای ساختاریافته از فیلدها است که زمینه مکالمه را فراهم میکند، نمونههایی از جفت پیام ورودی/خروجی کاربر که مدل را برای پاسخگویی به روشهای مختلف آماده میکنند، و تاریخچه مکالمه یا فهرستی از پیامها که چرخشهای متناوب مکالمه بین کاربر و مدل را نشان میدهند.
contextstringاختیاری. متنی که باید ابتدا در اختیار مدل قرار گیرد تا پاسخ را زمین گیر کند.
 اگر خالی نباشد، این context ابتدا قبل از examples و messages به مدل داده می شود. هنگام استفاده از context ، حتماً هر درخواستی را برای حفظ تداوم ارائه دهید.
این فیلد میتواند توصیفی از درخواست شما برای مدل باشد تا به ارائه زمینه و راهنمایی پاسخها کمک کند. مثالها: «عبارت را از انگلیسی به فرانسوی ترجمه کنید». یا "با توجه به بیانیه، احساس را به عنوان شاد، غمگین یا خنثی طبقه بندی کنید."
 اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود و درخواست ورودی کوتاه شود، هر چیزی که در این قسمت گنجانده شده است بر تاریخچه پیام ارجحیت دارد. 
examples[]object ( Example )اختیاری. نمونه هایی از آنچه مدل باید تولید کند.
این شامل ورودی کاربر و پاسخی است که مدل باید از آن تقلید کند.
 این examples با پیامهای مکالمه یکسان برخورد میکنند به جز اینکه در messages بر تاریخچه اولویت دارند: اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود، ورودی کوتاه میشود. موارد قبل از examples از messages حذف می شوند. 
messages[]object ( Message )مورد نیاز. یک عکس فوری از تاریخچه مکالمه اخیر به ترتیب زمانی مرتب شده است.
چرخش متناوب بین دو نویسنده.
 اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود، ورودی کوتاه میشود: قدیمیترین موارد از messages حذف میشوند. 
مثال
یک مثال ورودی/خروجی که برای آموزش مدل استفاده می شود.
نشان می دهد که مدل چگونه باید پاسخ دهد یا پاسخ خود را قالب بندی کند.
inputobject ( Message ) مورد نیاز. نمونه ای از یک Message ورودی از کاربر. 
outputobject ( Message )مورد نیاز. نمونه ای از آنچه که مدل باید با توجه به ورودی خروجی دهد.
GenerateTextResponse
پاسخ از مدل، از جمله تکمیل نامزد.
candidates[]object ( TextCompletion )پاسخ های کاندیدا از مدل.
filters[]object ( ContentFilter )مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.
 این نشان میدهد که کدام SafetyCategory (های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability که یک بلوک را راهاندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است. این نشان دهنده کوچکترین تغییر در SafetySettings است که برای رفع انسداد حداقل 1 پاسخ ضروری است.
 مسدود کردن توسط SafetySettings در درخواست (یا SafetySettings پیشفرض API) پیکربندی میشود. 
safetyFeedback[]object ( SafetyFeedback )هرگونه بازخورد ایمنی مربوط به فیلتر محتوا را برمیگرداند.
| نمایندگی JSON | 
|---|
| { "candidates": [ { object ( | 
تکمیل متن
متن خروجی برگردانده شده از یک مدل.
string outputفقط خروجی متن تولید شده از مدل برگردانده شد.
safetyRatings[]object ( SafetyRating )رتبه بندی برای ایمنی یک پاسخ.
حداکثر یک رتبه برای هر دسته وجود دارد.
citationMetadataobject ( CitationMetadata ) فقط خروجی اطلاعات نقل قول برای output تولید شده توسط مدل در این TextCompletion .
 این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در output پر شود. 
| نمایندگی JSON | 
|---|
| { "output": string, "safetyRatings": [ { object ( | 
بازخورد ایمنی
بازخورد ایمنی برای کل درخواست
اگر محتوای موجود در ورودی و/یا پاسخ به دلیل تنظیمات ایمنی مسدود شده باشد، این فیلد پر می شود. SafetyFeedback ممکن است برای هر HarmCategory وجود نداشته باشد. هر SafetyFeedback تنظیمات ایمنی استفاده شده توسط درخواست و همچنین کمترین احتمال آسیبی را که باید برای برگرداندن نتیجه مجاز باشد، برمی گرداند.
ratingobject ( SafetyRating )رتبه بندی ایمنی از روی محتوا ارزیابی شد.
settingobject ( SafetySetting )تنظیمات ایمنی برای درخواست اعمال می شود.
| نمایندگی JSON | 
|---|
| { "rating": { object ( |