PaLM (decommissioned)

روش: models.generateText

یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

پارامترهای مسیر

string model

مورد نیاز. نام Model یا TunedModel که برای ایجاد تکمیل استفاده می شود. مثال‌ها: models/text-bison-001 tunedModels/sentence-translator-u3b7m به شکل models/{model} است.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
شیء prompt object ( TextPrompt )

مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.

با توجه به یک اعلان، مدل یک پاسخ TextCompletion ایجاد می کند که به عنوان تکمیل متن ورودی پیش بینی می کند.

شیء safetySettings[] object ( SafetySetting )

اختیاری. فهرستی از نمونه‌های SafetySetting منحصر به فرد برای مسدود کردن محتوای ناامن.

که در GenerateTextRequest.prompt و GenerateTextResponse.candidates اجرا می شود. برای هر نوع SafetyCategory نباید بیش از یک تنظیم وجود داشته باشد. API هرگونه درخواست و پاسخی را که نتواند آستانه های تعیین شده توسط این تنظیمات را برآورده کند، مسدود می کند. این فهرست تنظیمات پیش‌فرض را برای هر SafetyCategory مشخص‌شده در تنظیمات ایمنی لغو می‌کند. اگر هیچ SafetySetting برای یک SafetyCategory معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیش‌فرض برای آن دسته استفاده می‌کند. دسته‌های آسیب HARM_CATEGORY_DEROGATORY، HARM_CATEGORY_TOXICITY، HARM_CATEGORY_VIOLENCE، HARM_CATEGORY_SEXUAL، HARM_CATEGORY_MEDICAL، HARM_CATEGORY_DANGEROUS در سرویس متن پشتیبانی می‌شوند.

string stopSequences[]

مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک توالی توقف متوقف خواهد شد. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.

number temperature

اختیاری. تصادفی بودن خروجی را کنترل می کند. توجه: مقدار پیش‌فرض براساس مدل متفاوت است، به ویژگی Model.temperature Model که تابع getModel را برگردانده است، مراجعه کنید.

مقادیر می توانند از [0.0،1.0]، شامل متغیر باشند. یک مقدار نزدیکتر به 1.0 پاسخ‌هایی را تولید می‌کند که متنوع‌تر و خلاقانه‌تر هستند، در حالی که مقدار نزدیک‌تر به 0.0 معمولاً منجر به پاسخ‌های ساده‌تر از مدل می‌شود.

candidateCount integer

اختیاری. تعداد پاسخ های تولید شده برای بازگشت.

این مقدار باید بین [1، 8]، شامل باشد. اگر تنظیم نشود، به طور پیش‌فرض روی ۱ خواهد بود.

maxOutputTokens integer

اختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد گنجانده شود.

اگر تنظیم نشود، به طور پیش‌فرض روی outputTokenLimit مشخص شده در مشخصات Model خواهد بود.

number topP

اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونه‌برداری Top-k مستقیماً حداکثر تعداد توکن‌های مورد نظر را محدود می‌کند، در حالی که نمونه‌برداری هسته‌ای تعداد توکن‌ها را بر اساس احتمال تجمعی محدود می‌کند.

توجه: مقدار پیش‌فرض براساس مدل متفاوت است، به ویژگی Model.top_p از Model تابع getModel را برگردانده است، نگاه کنید.

topK integer

اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد. پیش فرض 40 است.

توجه: مقدار پیش‌فرض بر اساس مدل متفاوت است، به ویژگی Model.top_k Model که تابع getModel را برگردانده است، نگاه کنید.

بدن پاسخگو

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateTextResponse است.

روش: models.countTextTokens

توکنایزر یک مدل را روی یک متن اجرا می کند و تعداد توکن ها را برمی گرداند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

پارامترهای مسیر

string model

مورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.

این نام باید با نام مدلی که با روش models.list برگردانده شده است مطابقت داشته باشد.

قالب: models/{model} شکل models/{model} را می‌گیرد.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
شیء prompt object ( TextPrompt )

مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.

بدن پاسخگو

پاسخی از models.countTextTokens .

tokenCount مدل را برای prompt باز می گرداند.

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:

فیلدها
tokenCount integer

تعداد نشانه هایی که model prompt را به آنها توکن می کند.

همیشه غیر منفی.

نمایندگی JSON
{
  "tokenCount": integer
}

روش: models.generateMessage

پاسخی را از مدل با یک MessagePrompt ورودی ایجاد می کند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

پارامترهای مسیر

string model

مورد نیاز. نام مدل مورد استفاده

قالب: name=models/{model} . شکل models/{model} را می‌گیرد.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
شیء prompt object ( MessagePrompt )

مورد نیاز. ورودی متنی ساختاریافته به عنوان یک اعلان به مدل داده می شود.

با دادن یک اعلان، مدل همان چیزی را که پیش‌بینی می‌کند پیام بعدی در بحث است، برمی‌گرداند.

number temperature

اختیاری. تصادفی بودن خروجی را کنترل می کند.

مقادیر می توانند بیش از [0.0,1.0] ، شامل محدوده باشند. یک مقدار نزدیک به 1.0 پاسخ هایی را ایجاد می کند که متنوع تر هستند، در حالی که مقدار نزدیک به 0.0 معمولاً منجر به پاسخ های شگفت انگیز کمتری از مدل می شود.

candidateCount integer

اختیاری. تعداد پیام های پاسخ تولید شده برای بازگشت.

این مقدار باید بین [1, 8] باشد. اگر تنظیم نشود، به طور پیش‌فرض روی 1 خواهد بود.

number topP

اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

نمونه برداری هسته کوچکترین مجموعه ای از نشانه ها را در نظر می گیرد که مجموع احتمال آنها حداقل topP باشد.

topK integer

اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد.

بدن پاسخگو

پاسخ از مدل

این شامل پیام‌های نامزد و سابقه مکالمه در قالب پیام‌های مرتب‌شده زمانی می‌شود.

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:

فیلدها
candidates[] object ( Message )

پیام های پاسخ کاندیدا از مدل.

messages[] object ( Message )

تاریخچه مکالمه استفاده شده توسط مدل.

شئ filters[] object ( ContentFilter )

مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.

این نشان می‌دهد که کدام SafetyCategory (های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability که یک بلوک را راه‌اندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است.

نمایندگی JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

روش: models.countMessageTokens

توکنایزر یک مدل را روی یک رشته اجرا می کند و تعداد توکن ها را برمی گرداند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

پارامترهای مسیر

string model

مورد نیاز. نام منبع مدل این به عنوان شناسه ای برای استفاده از مدل عمل می کند.

این نام باید با نام مدلی که با روش models.list برگردانده شده است مطابقت داشته باشد.

قالب: models/{model} شکل models/{model} را می‌گیرد.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
شیء prompt object ( MessagePrompt )

مورد نیاز. درخواستی که تعداد توکن آن باید برگردانده شود.

بدن پاسخگو

پاسخی از models.countMessageTokens .

tokenCount مدل را برای prompt باز می گرداند.

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:

فیلدها
tokenCount integer

تعداد نشانه هایی که model prompt را به آنها توکن می کند.

همیشه غیر منفی.

نمایندگی JSON
{
  "tokenCount": integer
}

روش: models.embedText

یک جاسازی از مدل با یک پیام ورودی ایجاد می کند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

پارامترهای مسیر

string model

مورد نیاز. نام مدل برای استفاده با قالب model=models/{model}. شکل models/{model} را می‌گیرد.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
string text

اختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.

بدن پاسخگو

پاسخ به EmbedTextRequest.

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:

فیلدها
embedding object ( Embedding )

فقط خروجی جاسازی ایجاد شده از متن ورودی.

نمایندگی JSON
{
  "embedding": {
    object (Embedding)
  }
}

روش: models.batchEmbedText

چندین جاسازی را از مدل متن ورودی داده شده در یک تماس همزمان ایجاد می کند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

پارامترهای مسیر

string model

مورد نیاز. نام Model که برای ایجاد تعبیه استفاده می شود. مثال‌ها: models/embedding-gecko-001 شکل models/{model} را می‌گیرد.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
texts[] string

اختیاری. متون ورودی با فرم آزاد که مدل به یک جاسازی تبدیل می شود. حد فعلی 100 متن است که خطا روی آن پرتاب می شود.

شی requests[] object ( EmbedTextRequest )

اختیاری. جاسازی درخواست‌ها برای دسته. فقط یکی از texts یا requests را می توان تنظیم کرد.

بدن پاسخگو

پاسخ به EmbedTextRequest.

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی داده هایی با ساختار زیر است:

فیلدها
embeddings[] object ( Embedding )

فقط خروجی جاسازی های ایجاد شده از متن ورودی.

نمایندگی JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

درخواست دریافت جاسازی متن از مدل.

فیلدها
string model

مورد نیاز. نام مدل برای استفاده با قالب model=models/{model}.

string text

اختیاری. متن ورودی با فرم آزاد که مدل آن را به یک جاسازی تبدیل می کند.

نمایندگی JSON
{
  "model": string,
  "text": string
}

روش: tunedModels.generateText

یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.

نقطه پایانی

پست https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

پارامترهای مسیر

string model

مورد نیاز. نام Model یا TunedModel که برای ایجاد تکمیل استفاده می شود. مثال‌ها: models/text-bison-001 tunedModels/sentence-translator-u3b7m به شکل tunedModels/{tunedmodel} است.

درخواست بدن

بدنه درخواست حاوی داده هایی با ساختار زیر است:

فیلدها
شیء prompt object ( TextPrompt )

مورد نیاز. متن ورودی با فرم آزاد که به عنوان یک اعلان به مدل داده می شود.

با توجه به یک اعلان، مدل یک پاسخ TextCompletion ایجاد می کند که به عنوان تکمیل متن ورودی پیش بینی می کند.

شیء safetySettings[] object ( SafetySetting )

اختیاری. فهرستی از نمونه‌های SafetySetting منحصر به فرد برای مسدود کردن محتوای ناامن.

که در GenerateTextRequest.prompt و GenerateTextResponse.candidates اجرا می شود. برای هر نوع SafetyCategory نباید بیش از یک تنظیم وجود داشته باشد. API هرگونه درخواست و پاسخی را که نتواند آستانه های تعیین شده توسط این تنظیمات را برآورده کند، مسدود می کند. این فهرست تنظیمات پیش‌فرض را برای هر SafetyCategory مشخص‌شده در تنظیمات ایمنی لغو می‌کند. اگر هیچ SafetySetting برای یک SafetyCategory معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیش‌فرض برای آن دسته استفاده می‌کند. دسته‌های آسیب HARM_CATEGORY_DEROGATORY، HARM_CATEGORY_TOXICITY، HARM_CATEGORY_VIOLENCE، HARM_CATEGORY_SEXUAL، HARM_CATEGORY_MEDICAL، HARM_CATEGORY_DANGEROUS در سرویس متن پشتیبانی می‌شوند.

string stopSequences[]

مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک توالی توقف متوقف خواهد شد. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.

number temperature

اختیاری. تصادفی بودن خروجی را کنترل می کند. توجه: مقدار پیش‌فرض براساس مدل متفاوت است، به ویژگی Model.temperature Model که تابع getModel را برگردانده است، مراجعه کنید.

مقادیر می توانند از [0.0،1.0]، شامل متغیر باشند. یک مقدار نزدیکتر به 1.0 پاسخ‌هایی را تولید می‌کند که متنوع‌تر و خلاقانه‌تر هستند، در حالی که مقدار نزدیک‌تر به 0.0 معمولاً منجر به پاسخ‌های ساده‌تر از مدل می‌شود.

candidateCount integer

اختیاری. تعداد پاسخ های تولید شده برای بازگشت.

این مقدار باید بین [1، 8]، شامل باشد. اگر تنظیم نشود، به طور پیش‌فرض روی ۱ خواهد بود.

maxOutputTokens integer

اختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد گنجانده شود.

اگر تنظیم نشود، به طور پیش‌فرض روی outputTokenLimit مشخص شده در مشخصات Model خواهد بود.

number topP

اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونه‌برداری Top-k مستقیماً حداکثر تعداد توکن‌های مورد نظر را محدود می‌کند، در حالی که نمونه‌برداری هسته‌ای تعداد توکن‌ها را بر اساس احتمال تجمعی محدود می‌کند.

توجه: مقدار پیش‌فرض براساس مدل متفاوت است، به ویژگی Model.top_p از Model تابع getModel را برگردانده است، نگاه کنید.

topK integer

اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.

این مدل از نمونه برداری ترکیبی Top-k و هسته استفاده می کند.

نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد. پیش فرض 40 است.

توجه: مقدار پیش‌فرض بر اساس مدل متفاوت است، به ویژگی Model.top_k Model که تابع getModel را برگردانده است، نگاه کنید.

بدن پاسخگو

در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateTextResponse است.

ContentFilter

فیلتر کردن فراداده محتوا مرتبط با پردازش یک درخواست واحد.

ContentFilter حاوی یک دلیل و یک رشته پشتیبانی اختیاری است. دلیل ممکن است نامشخص باشد.

فیلدها
reason enum ( BlockedReason )

دلیل مسدود شدن محتوا در طول پردازش درخواست.

string message

رشته ای که رفتار فیلتر کردن را با جزئیات بیشتری توصیف می کند.

نمایندگی JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

فهرستی از دلایلی که ممکن است محتوا مسدود شده باشد.

Enums
BLOCKED_REASON_UNSPECIFIED دلیل مسدود شده مشخص نشده است.
SAFETY محتوا توسط تنظیمات ایمنی مسدود شد.
OTHER محتوا مسدود شد، اما دلیل آن دسته بندی نشده است.

جاسازی

فهرستی از شناورها که نشان دهنده جاسازی هستند.

فیلدها
value[] number

مقادیر تعبیه شده

نمایندگی JSON
{
  "value": [
    number
  ]
}

پیام

واحد پایه متن ساخت یافته

یک Message شامل author و content Message است.

author برای برچسب گذاری پیام ها زمانی که به مدل به عنوان متن داده می شود استفاده می شود.

فیلدها
string author

اختیاری. نویسنده این پیام

این به عنوان کلیدی برای برچسب گذاری محتوای این پیام هنگامی که به مدل به عنوان متن داده می شود، عمل می کند.

نویسنده می تواند هر رشته الفبایی باشد.

string content

مورد نیاز. محتوای متن Message ساختاریافته.

citationMetadata object ( CitationMetadata )

فقط خروجی اطلاعات نقل قول برای content تولید شده توسط مدل در این Message .

اگر این Message به عنوان خروجی از مدل ایجاد شده باشد، این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در content پر شود. این فیلد فقط در خروجی استفاده می شود.

نمایندگی JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

تمام متن ورودی ساختاریافته به عنوان یک اعلان به مدل ارسال می شود.

MessagePrompt شامل مجموعه ای ساختاریافته از فیلدها است که زمینه مکالمه را فراهم می کند، نمونه هایی از جفت پیام ورودی/خروجی کاربر که مدل را برای پاسخگویی به روش های مختلف آماده می کند، و تاریخچه مکالمه یا لیستی از پیام ها که چرخش های متناوب مکالمه را نشان می دهد. کاربر و مدل

فیلدها
string context

اختیاری. متنی که باید ابتدا در اختیار مدل قرار گیرد تا پاسخ را زمین گیر کند.

اگر خالی نباشد، این context ابتدا قبل از examples و messages به مدل داده می شود. هنگام استفاده از context حتماً هر درخواستی را برای حفظ تداوم ارائه دهید.

این فیلد می‌تواند توصیفی از درخواست شما برای مدل باشد تا به ارائه زمینه و راهنمایی پاسخ‌ها کمک کند. مثال‌ها: «عبارت را از انگلیسی به فرانسوی ترجمه کنید». یا "با توجه به بیانیه، احساس را به عنوان شاد، غمگین یا خنثی طبقه بندی کنید."

اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود و درخواست ورودی کوتاه شود، هر چیزی که در این قسمت گنجانده شده است بر تاریخچه پیام ارجحیت دارد.

examples[] object ( Example )

اختیاری. نمونه هایی از آنچه مدل باید تولید کند.

این شامل ورودی کاربر و پاسخی است که مدل باید از آن تقلید کند.

این examples با پیام‌های مکالمه یکسان برخورد می‌کنند به جز اینکه در messages بر تاریخچه اولویت دارند: اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود، ورودی کوتاه می‌شود. موارد قبل از examples از messages حذف می شوند.

messages[] object ( Message )

مورد نیاز. یک عکس فوری از تاریخچه مکالمه اخیر به ترتیب زمانی مرتب شده است.

چرخش متناوب بین دو نویسنده.

اگر اندازه ورودی کل از inputTokenLimit مدل بیشتر شود، ورودی کوتاه می‌شود: قدیمی‌ترین موارد از messages حذف می‌شوند.

نمایندگی JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

مثال

یک مثال ورودی/خروجی که برای آموزش مدل استفاده می شود.

نشان می دهد که مدل چگونه باید پاسخ دهد یا پاسخ خود را قالب بندی کند.

فیلدها
شی input object ( Message )

مورد نیاز. نمونه ای از یک Message ورودی از طرف کاربر.

شی output object ( Message )

مورد نیاز. نمونه ای از آنچه که مدل باید با توجه به ورودی خروجی دهد.

نمایندگی JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

پاسخ از مدل، از جمله تکمیل نامزد.

فیلدها
candidates[] object ( TextCompletion )

پاسخ های کاندیدا از مدل.

شئ filters[] object ( ContentFilter )

مجموعه ای از فراداده های فیلتر کننده محتوا برای متن درخواست و پاسخ.

این نشان می‌دهد که کدام SafetyCategory (های) یک نامزد را از این پاسخ مسدود کرده است، کمترین HarmProbability که یک بلوک را راه‌اندازی کرده است، و تنظیمات HarmThreshold برای آن دسته است. این نشان دهنده کوچکترین تغییر در SafetySettings است که برای رفع انسداد حداقل 1 پاسخ ضروری است.

مسدود کردن توسط SafetySettings در درخواست (یا SafetySettings پیش‌فرض API) پیکربندی می‌شود.

شیء safetyFeedback[] object ( SafetyFeedback )

هرگونه بازخورد ایمنی مربوط به فیلتر محتوا را برمی‌گرداند.

نمایندگی JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

تکمیل متن

متن خروجی برگردانده شده از یک مدل.

فیلدها
string output

فقط خروجی متن تولید شده از مدل برگردانده شد.

شیء safetyRatings[] object ( SafetyRating )

رتبه بندی برای ایمنی یک پاسخ.

حداکثر یک رتبه برای هر دسته وجود دارد.

citationMetadata object ( CitationMetadata )

فقط خروجی اطلاعات نقل قول برای output تولید شده توسط مدل در این TextCompletion .

این قسمت ممکن است با اطلاعات انتساب برای هر متن موجود در output پر شود.

نمایندگی JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

بازخورد ایمنی

بازخورد ایمنی برای کل درخواست

اگر محتوای موجود در ورودی و/یا پاسخ به دلیل تنظیمات ایمنی مسدود شده باشد، این فیلد پر می شود. SafetyFeedback ممکن است برای هر HarmCategory وجود نداشته باشد. هر SafetyFeedback تنظیمات ایمنی استفاده شده توسط درخواست و همچنین کمترین احتمال آسیبی را که باید برای برگرداندن نتیجه مجاز باشد، برمی گرداند.

فیلدها
شی rating object ( SafetyRating )

رتبه بندی ایمنی از روی محتوا ارزیابی شد.

setting object ( SafetySetting )

تنظیمات ایمنی برای درخواست اعمال می شود.

نمایندگی JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

متنی که به عنوان اعلان به مدل داده می شود.

مدل از این TextPrompt برای ایجاد یک متن کامل استفاده می کند.

فیلدها
string text

مورد نیاز. متن فوری

نمایندگی JSON
{
  "text": string
}