Gemini API از تولید محتوا با تصاویر، صدا، کد، ابزار و موارد دیگر پشتیبانی می کند. برای جزئیات بیشتر در مورد هر یک از این ویژگی ها، کد نمونه متمرکز بر وظیفه را بخوانید و بررسی کنید، یا راهنمای جامع را بخوانید.
روش: models.generateContent
یک پاسخ مدل با یک ورودی GenerateContentRequest
ایجاد می کند. برای اطلاعات دقیق استفاده به راهنمای تولید متن مراجعه کنید. قابلیت های ورودی بین مدل ها از جمله مدل های تنظیم شده متفاوت است. برای جزئیات به راهنمای مدل و راهنمای تنظیم مراجعه کنید.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContentپارامترهای مسیر
string
model
مورد نیاز. نام Model
که برای ایجاد تکمیل استفاده می شود.
قالب: name=models/{model}
. شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
tools[]
object ( Tool
)
اختیاری. فهرستی از Tools
Model
ممکن است برای ایجاد پاسخ بعدی استفاده کند.
Tool
قطعه ای از کد است که سیستم را قادر می سازد تا با سیستم های خارجی برای انجام یک عمل یا مجموعه ای از اقدامات خارج از دانش و محدوده Model
تعامل داشته باشد. Tool
پشتیبانی شده Function
و codeExecution
هستند. برای کسب اطلاعات بیشتر به فراخوانی تابع و راهنمای اجرای کد مراجعه کنید.
toolConfig
object ( ToolConfig
)
اختیاری. پیکربندی ابزار برای هر Tool
در درخواست مشخص شده است. برای مثال استفاده به راهنمای فراخوانی تابع مراجعه کنید.
safetySettings[]
object ( SafetySetting
)
اختیاری. فهرستی از نمونههای SafetySetting
منحصر به فرد برای مسدود کردن محتوای ناامن.
این در GenerateContentRequest.contents
و GenerateContentResponse.candidates
اعمال خواهد شد. برای هر نوع SafetyCategory
نباید بیش از یک تنظیم وجود داشته باشد. API هر محتوا و پاسخی را که نتواند آستانه تعیین شده توسط این تنظیمات را برآورده کند مسدود می کند. این فهرست تنظیمات پیشفرض را برای هر SafetyCategory
مشخصشده در تنظیمات ایمنی لغو میکند. اگر هیچ SafetySetting
برای یک SafetyCategory
معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیشفرض برای آن دسته استفاده میکند. دستههای آسیب HARM_CATEGORY_HATE_SPEECH، HARM_CATEGORY_SEXUALLY_EXPLICIT، HARM_CATEGORY_DANGEROUS_CONTENT، HARM_CATEGORY_HARASSMENT پشتیبانی میشوند. برای اطلاعات دقیق در مورد تنظیمات ایمنی موجود به راهنما مراجعه کنید. همچنین به راهنمای ایمنی مراجعه کنید تا یاد بگیرید چگونه ملاحظات ایمنی را در برنامه های هوش مصنوعی خود لحاظ کنید.
systemInstruction
object ( Content
)
اختیاری. دستورالعمل(های) سیستم مجموعه توسعه دهنده. در حال حاضر فقط پیامک.
generationConfig
object ( GenerationConfig
)
اختیاری. گزینه های پیکربندی برای تولید مدل و خروجی ها.
cachedContent
string
اختیاری. نام محتوای ذخیره شده در حافظه پنهان برای استفاده به عنوان زمینه برای ارائه پیش بینی. قالب: cachedContents/{cachedContent}
درخواست نمونه
متن
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
تصویر
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
صوتی
پایتون
Node.js
پوسته
ویدئو
پایتون
Node.js
برو
پوسته
پایتون
پوسته
چت کنید
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
حافظه پنهان
پایتون
Node.js
مدل کوک شده
پایتون
حالت JSON
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
اجرای کد
پایتون
کاتلین
جاوا
فراخوانی تابع
پایتون
Node.js
پوسته
کاتلین
سویفت
دارت
جاوا
پیکربندی نسل
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
تنظیمات ایمنی
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
دستورالعمل سیستم
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
بدن پاسخگو
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی نمونه ای از GenerateContentResponse
است.
روش: models.streamGenerateContent
یک پاسخ جریانی از مدل با یک ورودی GenerateContentRequest
ایجاد می کند.
نقطه پایانی
پست https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContentپارامترهای مسیر
string
model
مورد نیاز. نام Model
که برای ایجاد تکمیل استفاده می شود.
قالب: name=models/{model}
. شکل models/{model}
را میگیرد.
درخواست بدن
بدنه درخواست حاوی داده هایی با ساختار زیر است:
tools[]
object ( Tool
)
اختیاری. فهرستی از Tools
Model
ممکن است برای ایجاد پاسخ بعدی استفاده کند.
Tool
قطعه ای از کد است که سیستم را قادر می سازد تا با سیستم های خارجی برای انجام یک عمل یا مجموعه ای از اقدامات خارج از دانش و محدوده Model
تعامل داشته باشد. Tool
پشتیبانی شده Function
و codeExecution
هستند. برای کسب اطلاعات بیشتر به فراخوانی تابع و راهنمای اجرای کد مراجعه کنید.
toolConfig
object ( ToolConfig
)
اختیاری. پیکربندی ابزار برای هر Tool
در درخواست مشخص شده است. برای مثال استفاده به راهنمای فراخوانی تابع مراجعه کنید.
safetySettings[]
object ( SafetySetting
)
اختیاری. فهرستی از نمونههای SafetySetting
منحصر به فرد برای مسدود کردن محتوای ناامن.
این در GenerateContentRequest.contents
و GenerateContentResponse.candidates
اعمال خواهد شد. برای هر نوع SafetyCategory
نباید بیش از یک تنظیم وجود داشته باشد. API هر محتوا و پاسخی را که نتواند آستانه تعیین شده توسط این تنظیمات را برآورده کند مسدود می کند. این فهرست تنظیمات پیشفرض را برای هر SafetyCategory
مشخصشده در تنظیمات ایمنی لغو میکند. اگر هیچ SafetySetting
برای یک SafetyCategory
معین در لیست ارائه نشده باشد، API از تنظیمات ایمنی پیشفرض برای آن دسته استفاده میکند. دستههای آسیب HARM_CATEGORY_HATE_SPEECH، HARM_CATEGORY_SEXUALLY_EXPLICIT، HARM_CATEGORY_DANGEROUS_CONTENT، HARM_CATEGORY_HARASSMENT پشتیبانی میشوند. برای اطلاعات دقیق در مورد تنظیمات ایمنی موجود به راهنما مراجعه کنید. همچنین به راهنمای ایمنی مراجعه کنید تا یاد بگیرید چگونه ملاحظات ایمنی را در برنامه های هوش مصنوعی خود لحاظ کنید.
systemInstruction
object ( Content
)
اختیاری. دستورالعمل(های) سیستم مجموعه توسعه دهنده. در حال حاضر فقط پیامک.
generationConfig
object ( GenerationConfig
)
اختیاری. گزینه های پیکربندی برای تولید مدل و خروجی ها.
cachedContent
string
اختیاری. نام محتوای ذخیره شده در حافظه پنهان برای استفاده به عنوان زمینه برای ارائه پیش بینی. قالب: cachedContents/{cachedContent}
درخواست نمونه
متن
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
تصویر
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
صوتی
پایتون
پوسته
ویدئو
پایتون
Node.js
برو
پوسته
پایتون
پوسته
چت کنید
پایتون
Node.js
برو
پوسته
کاتلین
سویفت
دارت
جاوا
بدن پاسخگو
در صورت موفقیت آمیز بودن، بدنه پاسخ حاوی جریانی از نمونه های GenerateContentResponse
است.
Generate ContentResponse
پاسخ از مدلی که از چندین پاسخ نامزد پشتیبانی می کند.
رتبهبندی ایمنی و فیلتر محتوا هم برای prompt در GenerateContentResponse.prompt_feedback
و هم برای هر نامزد در finishReason
و در safetyRatings
گزارش میشود. API: - همه نامزدهای درخواست شده یا هیچ یک از آنها را برمیگرداند - فقط در صورتی که مشکلی در درخواست وجود داشته باشد، هیچ نامزدی را برمیگرداند ( promptFeedback
را بررسی کنید) - بازخورد هر نامزد را در finishReason
و safetyRatings
گزارش میکند.
candidates[]
object ( Candidate
)
پاسخ های کاندیدا از مدل.
promptFeedback
object ( PromptFeedback
)
بازخورد درخواست مربوط به فیلترهای محتوا را برمیگرداند.
usageMetadata
object ( UsageMetadata
)
فقط خروجی فراداده در مورد استفاده از رمز درخواست های تولید.
نمایندگی JSON |
---|
{ "candidates": [ { object ( |
PromptFeedback
مجموعه ای از فراداده های بازخوردی که در GenerateContentRequest.content
مشخص شده است.
blockReason
enum ( BlockReason
)
اختیاری. در صورت تنظیم، درخواست مسدود شده است و هیچ نامزدی برگردانده نمی شود. دستور را دوباره بیان کنید.
safetyRatings[]
object ( SafetyRating
)
رتبه بندی برای ایمنی سریع. حداکثر یک رتبه برای هر دسته وجود دارد.
نمایندگی JSON |
---|
{ "blockReason": enum ( |
BlockReason
دلیل مسدود شدن درخواست را مشخص می کند.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED | مقدار پیش فرض این مقدار استفاده نشده است. |
SAFETY | درخواست به دلایل ایمنی مسدود شد. safetyRatings بررسی کنید تا متوجه شوید کدام دسته ایمنی آن را مسدود کرده است. |
OTHER | درخواست به دلایل نامعلوم مسدود شد. |
BLOCKLIST | درخواست به دلیل شرایطی که از فهرست مسدودی اصطلاحات موجود است مسدود شد. |
PROHIBITED_CONTENT | درخواست به دلیل محتوای ممنوع مسدود شد. |
UsageMetadata
فراداده در مورد استفاده از رمز درخواست تولید.
promptTokenCount
integer
تعداد توکن ها در اعلان. هنگامی که cachedContent
تنظیم میشود، این اندازه هنوز کل اندازه مؤثر است به این معنی که شامل تعداد نشانههای موجود در محتوای کش میشود.
cachedContentTokenCount
integer
تعداد توکن ها در قسمت کش شده اعلان (محتوای ذخیره شده)
candidatesTokenCount
integer
تعداد کل توکن ها در همه نامزدهای پاسخ تولید شده.
totalTokenCount
integer
تعداد کل توکن برای درخواست تولید (کاندیداهای سریع + پاسخ).
نمایندگی JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
نامزد
یک کاندید پاسخ تولید شده از مدل.
content
object ( Content
)
فقط خروجی محتوای تولید شده از مدل برگردانده شده است.
finishReason
enum ( FinishReason
)
اختیاری. فقط خروجی دلیل توقف تولید توکن توسط مدل.
اگر خالی باشد، مدل تولید توکن را متوقف نکرده است.
safetyRatings[]
object ( SafetyRating
)
فهرست رتبه بندی برای ایمنی یک نامزد پاسخ.
حداکثر یک رتبه برای هر دسته وجود دارد.
citationMetadata
object ( CitationMetadata
)
فقط خروجی اطلاعات استناد برای نامزد تولید شده توسط مدل.
این قسمت ممکن است با اطلاعات تلاوت برای هر متن موجود در content
پر شود. اینها قسمتهایی هستند که از مطالب دارای حق چاپ در دادههای آموزشی بنیادی LLM «خوانده میشوند».
tokenCount
integer
فقط خروجی شمارش رمز برای این نامزد.
number
avgLogprobs
فقط خروجی
logprobsResult
object ( LogprobsResult
)
فقط خروجی امتیازات لاگ احتمال برای توکن های پاسخ و نشانه های برتر
integer
index
فقط خروجی فهرست نامزد در لیست کاندیداهای پاسخ.
نمایندگی JSON |
---|
{ "content": { object ( |
FinishReason
دلیل توقف تولید توکن ها توسط مدل را مشخص می کند.
Enums | |
---|---|
FINISH_REASON_UNSPECIFIED | مقدار پیش فرض این مقدار استفاده نشده است. |
STOP | نقطه توقف طبیعی مدل یا توالی توقف ارائه شده. |
MAX_TOKENS | حداکثر تعداد توکنهایی که در درخواست مشخص شده بود به دست آمد. |
SAFETY | محتوای نامزد پاسخ به دلایل ایمنی پرچم گذاری شد. |
RECITATION | محتوای نامزد پاسخ به دلایل تلاوت پرچم گذاری شد. |
LANGUAGE | محتوای نامزد پاسخ به دلیل استفاده از زبان پشتیبانی نشده پرچم گذاری شد. |
OTHER | دلیل نامعلوم |
BLOCKLIST | تولید رمز متوقف شد زیرا محتوا حاوی عبارات ممنوع است. |
PROHIBITED_CONTENT | تولید رمز به دلیل داشتن محتوای ممنوعه متوقف شد. |
SPII | تولید رمز متوقف شد زیرا محتوا به طور بالقوه حاوی اطلاعات قابل شناسایی شخصی حساس (SPII) است. |
MALFORMED_FUNCTION_CALL | فراخوانی تابع تولید شده توسط مدل نامعتبر است. |
Logprobs Result
نتایج Logprobs
topCandidates[]
object ( TopCandidates
)
طول = تعداد کل مراحل رمزگشایی.
chosenCandidates[]
object ( Candidate
)
طول = تعداد کل مراحل رمزگشایی. نامزدهای انتخاب شده ممکن است در topCandidates باشند یا نباشند.
نمایندگی JSON |
---|
{ "topCandidates": [ { object ( |
Top Candidates
کاندیداهایی که در هر مرحله رمزگشایی احتمالات ثبت بالا را دارند.
candidates[]
object ( Candidate
)
بر اساس احتمال گزارش به ترتیب نزولی مرتب شده است.
نمایندگی JSON |
---|
{
"candidates": [
{
object ( |
نامزد
نامزد برای نشانه و امتیاز logprobs.
string
token
مقدار رشته رمز نامزد.
tokenId
integer
مقدار شناسه رمز نامزد.
logProbability
number
احتمالاحتمال ثبت نام نامزد.
نمایندگی JSON |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
CitationMetadata
مجموعه ای از منابع منبع برای یک قطعه محتوا.
citationSources[]
object ( CitationSource
)
استناد به منابع برای پاسخ خاص.
نمایندگی JSON |
---|
{
"citationSources": [
{
object ( |
منبع استناد
استناد به یک منبع برای بخشی از یک پاسخ خاص.
startIndex
integer
اختیاری. شروع بخش پاسخی که به این منبع نسبت داده می شود.
شاخص شروع بخش را نشان می دهد که در بایت اندازه گیری می شود.
endIndex
integer
اختیاری. انتهای بخش منتسب، انحصاری.
string
uri
اختیاری. URI که به عنوان منبع بخشی از متن نسبت داده می شود.
string
license
اختیاری. مجوز برای پروژه GitHub که به عنوان منبعی برای بخش نسبت داده می شود.
اطلاعات مجوز برای استناد کد مورد نیاز است.
نمایندگی JSON |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
گزینه های پیکربندی برای تولید مدل و خروجی ها. همه پارامترها برای هر مدلی قابل تنظیم نیستند.
string
stopSequences[]
اختیاری. مجموعه ای از دنباله های کاراکتر (تا 5) که تولید خروجی را متوقف می کند. اگر مشخص شود، API در اولین ظاهر یک stop_sequence
متوقف میشود. توالی توقف به عنوان بخشی از پاسخ درج نخواهد شد.
string
responseMimeType
اختیاری. نوع MIME متن نامزد تولید شده. انواع MIME پشتیبانی شده عبارتند از: text/plain
: (پیشفرض) خروجی متن. application/json
: پاسخ JSON در نامزدهای پاسخ. text/x.enum
: ENUM به عنوان پاسخ رشته ای در نامزدهای پاسخ. برای لیستی از انواع MIME نوشتاری پشتیبانی شده به اسناد مراجعه کنید.
responseSchema
object ( Schema
)
اختیاری. طرح خروجی متن نامزد تولید شده. طرحواره ها باید زیرمجموعه ای از طرحواره OpenAPI باشند و می توانند اشیاء، اولیه یا آرایه ها باشند.
در صورت تنظیم، یک responseMimeType
سازگار نیز باید تنظیم شود. انواع MIME سازگار: application/json
: طرحواره برای پاسخ JSON. برای جزئیات بیشتر به راهنمای تولید متن JSON مراجعه کنید.
candidateCount
integer
اختیاری. تعداد پاسخ های تولید شده برای بازگشت.
در حال حاضر، این مقدار را فقط می توان روی 1 تنظیم کرد. اگر تنظیم نشود، به طور پیش فرض روی 1 خواهد بود.
maxOutputTokens
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در یک نامزد پاسخ گنجانده شود.
توجه: مقدار پیش فرض بسته به مدل متفاوت است، به ویژگی Model.output_token_limit
Model
بازگشتی از تابع getModel
مراجعه کنید.
number
temperature
اختیاری. تصادفی بودن خروجی را کنترل می کند.
توجه: مقدار پیش فرض بر اساس مدل متفاوت است، به ویژگی Model.temperature
Model
بازگشتی از تابع getModel
مراجعه کنید.
مقادیر می توانند از [0.0، 2.0] متغیر باشند.
number
topP
اختیاری. حداکثر احتمال تجمعی نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شوند.
این مدل از نمونه برداری ترکیبی Top-k و Top-p (هسته) استفاده می کند.
توکن ها بر اساس احتمالات اختصاص داده شده مرتب می شوند تا فقط محتمل ترین توکن ها در نظر گرفته شوند. نمونهگیری Top-k مستقیماً حداکثر تعداد توکنهای مورد نظر را محدود میکند، در حالی که نمونهبرداری هستهای تعداد نشانهها را بر اساس احتمال تجمعی محدود میکند.
توجه: مقدار پیشفرض براساس Model
متفاوت است و با ویژگی Model.top_p
که از تابع getModel
برگردانده شده است، مشخص میشود. یک ویژگی topK
خالی نشان میدهد که مدل نمونهگیری top-k را اعمال نمیکند و اجازه تنظیم topK
را در درخواستها نمیدهد.
topK
integer
اختیاری. حداکثر تعداد نشانه هایی که باید در هنگام نمونه گیری در نظر گرفته شود.
مدل های Gemini از نمونه برداری Top-p (هسته) یا ترکیبی از نمونه برداری Top-k و هسته استفاده می کنند. نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK
را در نظر می گیرد. مدلهایی که با نمونهبرداری هسته اجرا میشوند، اجازه تنظیم topK را نمیدهند.
توجه: مقدار پیشفرض براساس Model
متفاوت است و با ویژگی Model.top_p
که از تابع getModel
برگردانده شده است، مشخص میشود. یک ویژگی topK
خالی نشان میدهد که مدل نمونهگیری top-k را اعمال نمیکند و اجازه تنظیم topK
را در درخواستها نمیدهد.
presencePenalty
number
جریمهاختیاری. اگر نشانه قبلاً در پاسخ دیده شده باشد، جریمه حضور برای logprobs نشانه بعدی اعمال می شود.
این پنالتی باینری روشن/خاموش است و به تعداد دفعات استفاده از توکن (بعد از اولین بار) بستگی ندارد. برای جریمه ای که با هر بار استفاده افزایش می یابد، از frequencyPenalty
استفاده کنید.
یک جریمه مثبت استفاده از نشانه هایی را که قبلاً در پاسخ استفاده شده اند منع می کند و دایره لغات را افزایش می دهد.
جریمه منفی استفاده از نشانه هایی را که قبلاً در پاسخ استفاده شده است تشویق می کند و دایره واژگان را کاهش می دهد.
number
frequencyPenalty
اختیاری. جریمه فرکانس اعمال شده به logprob های توکن بعدی، ضرب در تعداد دفعاتی که هر نشانه در پاسخ تاکنون دیده شده است.
یک جریمه مثبت، به تناسب تعداد دفعاتی که توکن استفاده شده است، استفاده از نشانههایی را که قبلاً استفاده شدهاند، منصرف میکند: هر چه یک نشانه بیشتر استفاده شود، برای مدل دشوارتر است که دوباره از آن نشانه استفاده کند و دایره واژگان را افزایش میدهد. از پاسخ ها
احتیاط: یک جریمه منفی ، مدل را تشویق میکند تا از توکنها متناسب با تعداد دفعاتی که توکن استفاده شده است استفاده کند. مقادیر منفی کوچک واژگان یک پاسخ را کاهش می دهد. مقادیر منفی بزرگتر باعث می شود که مدل شروع به تکرار یک نشانه معمولی کند تا زمانی که به حد maxOutputTokens
برسد: "... the the the...".
responseLogprobs
boolean
اختیاری. اگر درست باشد، نتایج logprobs را صادر کنید.
logprobs
integer
اختیاری. فقط در صورتی معتبر است که responseLogprobs=True
. این تعداد logprobs برتر را برای بازگشت در هر مرحله رمزگشایی در Candidate.logprobs_result
تنظیم می کند.
نمایندگی JSON |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
دسته بندی آسیب
دسته بندی یک رتبه.
این دسته ها انواع مختلفی از آسیب ها را پوشش می دهند که توسعه دهندگان ممکن است بخواهند آنها را تعدیل کنند.
Enums | |
---|---|
HARM_CATEGORY_UNSPECIFIED | دسته نامشخص است |
HARM_CATEGORY_DEROGATORY | PALM - نظرات منفی یا مضر با هدف قرار دادن هویت و/یا ویژگی محافظت شده. |
HARM_CATEGORY_TOXICITY | PALM - محتوایی که بی ادب، بی احترامی یا توهین آمیز است. |
HARM_CATEGORY_VIOLENCE | PalM - سناریوهایی را توصیف میکند که خشونت علیه یک فرد یا گروه را به تصویر میکشد، یا توصیفهای کلی از گور را نشان میدهد. |
HARM_CATEGORY_SEXUAL | PalM - حاوی ارجاعاتی به اعمال جنسی یا سایر محتوای زننده است. |
HARM_CATEGORY_MEDICAL | PALM - توصیه های پزشکی بررسی نشده را تبلیغ می کند. |
HARM_CATEGORY_DANGEROUS | پالم - محتوای خطرناکی که اقدامات مضر را ترویج، تسهیل یا تشویق میکند. |
HARM_CATEGORY_HARASSMENT | جمینی - مطالب آزاردهنده. |
HARM_CATEGORY_HATE_SPEECH | جمینی - سخنان و مطالب نفرت انگیز. |
HARM_CATEGORY_SEXUALLY_EXPLICIT | جمینی - محتوای جنسی صریح. |
HARM_CATEGORY_DANGEROUS_CONTENT | جمینی - محتوای خطرناک. |
HARM_CATEGORY_CIVIC_INTEGRITY | جمینی - محتوایی که ممکن است برای آسیب رساندن به یکپارچگی مدنی استفاده شود. |
رتبه بندی ایمنی
رتبه بندی ایمنی برای یک قطعه محتوا.
رتبه بندی ایمنی شامل دسته آسیب و سطح احتمال آسیب در آن دسته برای یک قطعه محتوا است. محتوا برای ایمنی در تعدادی از دستههای آسیب طبقهبندی شده است و احتمال طبقهبندی آسیب در اینجا گنجانده شده است.
category
enum ( HarmCategory
)
مورد نیاز. دسته بندی برای این رتبه بندی
probability
enum ( HarmProbability
)
مورد نیاز. احتمال آسیب برای این محتوا.
boolean
blocked
آیا این محتوا به دلیل این رتبه بندی مسدود شده است؟
نمایندگی JSON |
---|
{ "category": enum ( |
احتمال آسیب
احتمال مضر بودن یک قطعه محتوا.
سیستم طبقه بندی احتمال ناامن بودن محتوا را می دهد. این نشان دهنده شدت آسیب برای یک قطعه محتوا نیست.
Enums | |
---|---|
HARM_PROBABILITY_UNSPECIFIED | احتمال نامشخص است. |
NEGLIGIBLE | احتمال ناامن بودن محتوا ناچیز است. |
LOW | احتمال ناامن بودن محتوا کم است. |
MEDIUM | محتوا شانس متوسطی برای ناامن شدن دارد. |
HIGH | محتوا شانس بالایی برای ناامن بودن دارد. |
SafetySetting
تنظیم ایمنی، بر رفتار انسداد ایمنی تأثیر می گذارد.
تصویب یک تنظیم ایمنی برای یک دسته، احتمال مسدود شدن محتوا را تغییر می دهد.
category
enum ( HarmCategory
)
مورد نیاز. دسته برای این تنظیم.
threshold
enum ( HarmBlockThreshold
)
مورد نیاز. آستانه احتمال مسدود شدن آسیب را کنترل می کند.
نمایندگی JSON |
---|
{ "category": enum ( |
HarmBlockThreshold
مسدود کردن در و فراتر از یک احتمال آسیب مشخص شده.
Enums | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED | آستانه مشخص نیست. |
BLOCK_LOW_AND_ABOVE | محتوای با NEGLIGIBLE مجاز خواهد بود. |
BLOCK_MEDIUM_AND_ABOVE | محتوای با NEGLIGIBLE و LOW مجاز خواهد بود. |
BLOCK_ONLY_HIGH | محتوای با NEGLIGIBLE، LOW، و MEDIUM مجاز خواهد بود. |
BLOCK_NONE | تمام محتوا مجاز خواهد بود. |
OFF | فیلتر ایمنی را خاموش کنید. |