تتيح واجهة Gemini API إنشاء المحتوى باستخدام الصور والصوت والرموز والأدوات وغير ذلك. للحصول على تفاصيل حول كل ميزة من هذه الميزات، اقرأ واطلع على نموذج التعليمات البرمجية الذي يركز على المهمة، أو اقرأ الأدلة الشاملة.
الطريقة: model.generateContent
إنشاء استجابة نموذج استنادًا إلى إدخال GenerateContentRequest
راجِع دليل إنشاء النص للحصول على معلومات تفصيلية عن الاستخدام. تختلف إمكانات الإدخال بين النماذج، بما في ذلك النماذج التي تم ضبطها. راجِع دليل النماذج ودليل الضبط للاطّلاع على التفاصيل.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContent
مَعلمات المسار
model
string
مطلوب. اسم Model
المطلوب استخدامه لإنشاء الإكمال.
التنسيق: name=models/{model}
ويكون على النحو models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
contents[]
object (Content
)
مطلوب. محتوى المحادثة الحالية مع النموذج.
بالنسبة إلى طلبات البحث الأحادية الاتجاه، هذا مجرد مثيل واحد. بالنسبة إلى طلبات البحث المتعددة الأدوار، مثل المحادثة، هذا حقل متكرّر يحتوي على سجلّ المحادثات وأحدث طلب.
tools[]
object (Tool
)
اختياريّ. قائمة بـ Tools
التي قد يستخدمها Model
لإنشاء الرد التالي.
Tool
هو جزء من الرمز البرمجي يتيح للنظام التفاعل مع الأنظمة الخارجية لتنفيذ إجراء أو مجموعة إجراءات خارج نطاق معرفة Model
ونطاقها. قيم Tool
المتوافقة هي Function
وcodeExecution
. لمزيد من المعلومات، يُرجى الرجوع إلى أدلة استدعاء الدوال وتنفيذ الرمز.
toolConfig
object (ToolConfig
)
اختياريّ. إعداد الأداة لأي Tool
محدد في الطلب. راجِع دليل استدعاء الدوال للاطّلاع على مثال على الاستخدام.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن.
وسيتم فرض ذلك على GenerateContentRequest.contents
وGenerateContentResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي محتوى واستجابات لا تستوفي الحدود الدنيا التي حدّدتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_HATE_SPEECH وHARM_CATEGORY_SEXUALLY_EXPLICIT وHARM_CATEGORY_DANGEROUS_CONTENT وHARM_CATEGORY_HARASSMENT متاحة. راجِع الدليل للحصول على معلومات مفصّلة عن إعدادات الأمان المتاحة. يمكنك أيضًا الاطّلاع على إرشادات السلامة لمعرفة كيفية دمج اعتبارات الأمان في تطبيقات الذكاء الاصطناعي.
systemInstruction
object (Content
)
اختياريّ. تعليمات النظام التي ضبطها المطوّر وهي متاحة حاليًا عبر الرسائل النصية فقط.
generationConfig
object (GenerationConfig
)
اختياريّ. خيارات الضبط لإنشاء النماذج والنتائج
cachedContent
string
اختياريّ. اسم المحتوى المخزّن مؤقتًا لاستخدامه كسياق لعرض عبارة البحث المقترحة تنسيق الملف: cachedContents/{cachedContent}
مثال على الطلب
النص
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
صورة
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
الصوت
Python
Node.js
صَدفة
فيديو
Python
Node.js
البدء
صَدفة
Python
صَدفة
دردشة
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
ذاكرة التخزين المؤقت
Python
Node.js
نموذج تم ضبطه
Python
وضع JSON
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
تنفيذ الرمز البرمجي
Python
Kotlin
Java
استدعاء الدالة
Python
Node.js
صَدفة
Kotlin
Swift
Dart
Java
إعدادات الإنشاء
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
إعدادات الأمان
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
تعليمات النظام
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateContentResponse
.
الطريقة: model.streamGenerateContent
إنشاء استجابة بث من النموذج مع إدخال GenerateContentRequest
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContent
مَعلمات المسار
model
string
مطلوب. اسم Model
المطلوب استخدامه لإنشاء الإكمال.
التنسيق: name=models/{model}
ويكون على النحو models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
contents[]
object (Content
)
مطلوب. محتوى المحادثة الحالية مع النموذج.
بالنسبة إلى طلبات البحث الأحادية الاتجاه، هذا مجرد مثيل واحد. بالنسبة إلى طلبات البحث المتعددة الأدوار، مثل المحادثة، هذا حقل متكرّر يحتوي على سجلّ المحادثات وأحدث طلب.
tools[]
object (Tool
)
اختياريّ. قائمة بـ Tools
التي قد يستخدمها Model
لإنشاء الرد التالي.
Tool
هو جزء من الرمز البرمجي يتيح للنظام التفاعل مع الأنظمة الخارجية لتنفيذ إجراء أو مجموعة إجراءات خارج نطاق معرفة Model
ونطاقها. قيم Tool
المتوافقة هي Function
وcodeExecution
. لمزيد من المعلومات، يُرجى الرجوع إلى أدلة استدعاء الدوال وتنفيذ الرمز.
toolConfig
object (ToolConfig
)
اختياريّ. إعداد الأداة لأي Tool
محدد في الطلب. راجِع دليل استدعاء الدوال للاطّلاع على مثال على الاستخدام.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن.
وسيتم فرض ذلك على GenerateContentRequest.contents
وGenerateContentResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي محتوى واستجابات لا تستوفي الحدود الدنيا التي حدّدتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_HATE_SPEECH وHARM_CATEGORY_SEXUALLY_EXPLICIT وHARM_CATEGORY_DANGEROUS_CONTENT وHARM_CATEGORY_HARASSMENT متاحة. راجِع الدليل للحصول على معلومات مفصّلة عن إعدادات الأمان المتاحة. يمكنك أيضًا الاطّلاع على إرشادات السلامة لمعرفة كيفية دمج اعتبارات الأمان في تطبيقات الذكاء الاصطناعي.
systemInstruction
object (Content
)
اختياريّ. تعليمات النظام التي ضبطها المطوّر وهي متاحة حاليًا عبر الرسائل النصية فقط.
generationConfig
object (GenerationConfig
)
اختياريّ. خيارات الضبط لإنشاء النماذج والنتائج
cachedContent
string
اختياريّ. اسم المحتوى المخزّن مؤقتًا لاستخدامه كسياق لعرض عبارة البحث المقترحة تنسيق الملف: cachedContents/{cachedContent}
مثال على الطلب
النص
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
صورة
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
الصوت
Python
صَدفة
فيديو
Python
Node.js
البدء
صَدفة
Python
صَدفة
دردشة
Python
Node.js
البدء
صَدفة
Kotlin
Swift
Dart
Java
نص الاستجابة
في حال النجاح، يحتوي نص الاستجابة على سلسلة من GenerateContentResponse
أمثلة.
GenerateContentResponse
رد من النموذج يدعم ردودًا متعددة مرشحين.
يتم الإبلاغ عن تقييمات الأمان وفلترة المحتوى لكل من الطلب في GenerateContentResponse.prompt_feedback
ولكل مرشّح في finishReason
وفي safetyRatings
. واجهة برمجة التطبيقات: - تعرض إما كل العناصر المرشحة المطلوبة أو لا تعرض أيًا منها - لا تعرض أي مرشحين على الإطلاق فقط إذا كان هناك خطأ ما في الطلب (حدد promptFeedback
) - يقدم تعليقات عن كل مرشح في finishReason
وsafetyRatings
.
candidates[]
object (Candidate
)
ردود المرشحين من النموذج
promptFeedback
object (PromptFeedback
)
عرض ملاحظات الطلب ذات الصلة بفلاتر المحتوى
usageMetadata
object (UsageMetadata
)
النتائج فقط. البيانات الوصفية حول طلبات الإنشاء' استخدام الرمز المميز.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
PromptFeedback
مجموعة من البيانات الوصفية للملاحظات للطلب المحدّد في GenerateContentRequest.content
.
blockReason
enum (BlockReason
)
اختياريّ. وفي حال ضبطها، تم حظر الطلب ولن يتم عرض أي مرشحات. أعِد صياغة الطلب.
safetyRatings[]
object (SafetyRating
)
التقييمات للتأكّد من أمان الطلب يتوفّر تقييم واحد كحدّ أقصى لكل فئة.
تمثيل JSON |
---|
{ "blockReason": enum ( |
BlockReason
تحدّد هذه السياسة سبب حظر الطلب.
عمليات التعداد | |
---|---|
BLOCK_REASON_UNSPECIFIED |
القيمة التلقائية. هذه القيمة غير مستخدمة. |
SAFETY |
تم حظر الطلب لأسباب تتعلق بالسلامة. افحص "safetyRatings " لمعرفة فئة الأمان التي حظرته. |
OTHER |
تم حظر الطلب لأسباب غير معروفة. |
BLOCKLIST |
تم حظر الطلب بسبب العبارات المضمَّنة من القائمة المحظورة للمصطلحات. |
PROHIBITED_CONTENT |
تم حظر الطلب بسبب وجود محتوى محظور. |
UsageMetadata
البيانات الوصفية المتعلقة باستخدام الرمز المميّز لطلب الإنشاء
promptTokenCount
integer
عدد الرموز المميّزة في الطلب عند ضبط cachedContent
، يظل هذا هو إجمالي حجم الطلب الفعّال، ما يعني أنّ ذلك يتضمّن عدد الرموز المميّزة في المحتوى المخزَّن مؤقتًا.
cachedContentTokenCount
integer
عدد الرموز المميّزة في الجزء المُخزَّن مؤقتًا من الطلب (المحتوى المُخزَّن مؤقتًا)
candidatesTokenCount
integer
إجمالي عدد الرموز المميّزة على مستوى جميع الاقتراحات المحفّزة للاستجابة التي تم إنشاؤها
totalTokenCount
integer
إجمالي عدد الرموز المميّزة لطلب الإنشاء (الطلب + العناصر المحفّزة للاستجابة)
تمثيل JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
مرشح
- تمثيل JSON
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
مرشّح للرد تم إنشاؤه من النموذج
content
object (Content
)
النتائج فقط. المحتوى الذي تم إنشاؤه وتم عرضه من النموذج
finishReason
enum (FinishReason
)
اختياريّ. النتائج فقط. سبب توقّف النموذج عن إنشاء الرموز المميّزة
وإذا كانت فارغة، هذا يعني أنّ النموذج لم يتوقف عن إنشاء الرموز المميّزة.
safetyRatings[]
object (SafetyRating
)
قائمة التقييمات الخاصة بأمان أحد المرشّحين للرد
يتوفّر تقييم واحد كحدّ أقصى لكل فئة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاقتباس للمرشح الذي تم إنشاؤه من خلال النموذج
يمكن تعبئة هذا الحقل بمعلومات الإشادة لأي نص مضمّن في content
. هذه الفقرات التي يتم "تلائتها" من المواد المحمية بموجب حقوق الطبع والنشر في البيانات التدريبية الأساسية للنموذج اللغوي الكبير (LLM).
tokenCount
integer
النتائج فقط. عدد الرموز المميّزة لهذا المرشح.
groundingAttributions[]
object (GroundingAttribution
)
النتائج فقط. يشير ذلك المصطلح إلى معلومات عن تحديد المصدر للمصادر التي ساهمت في تقديم إجابة وافية.
تتم تعبئة هذا الحقل لمكالمات GenerateAnswer
.
index
integer
النتائج فقط. فهرس المرشح في قائمة المرشحين للرد.
تمثيل JSON |
---|
{ "content": { object ( |
FinishReason
تحدد هذه السمة سبب توقّف النموذج عن إنشاء رموز مميّزة.
عمليات التعداد | |
---|---|
FINISH_REASON_UNSPECIFIED |
القيمة التلقائية. هذه القيمة غير مستخدمة. |
STOP |
نقطة التوقّف الطبيعية للنموذج أو تسلسل التوقّف المُقدّم. |
MAX_TOKENS |
تم الوصول إلى الحدّ الأقصى لعدد الرموز المميّزة على النحو المحدّد في الطلب. |
SAFETY |
تم الإبلاغ عن المحتوى المرشّح للرد لأسباب تتعلّق بالأمان. |
RECITATION |
تم الإبلاغ عن المحتوى المرشّح للرد لأسباب تتعلق بالتلاشي. |
LANGUAGE |
تم الإبلاغ عن المحتوى المرشّح للرد بسبب استخدام لغة غير متاحة. |
OTHER |
السبب غير معروف. |
BLOCKLIST |
تم إيقاف إنشاء الرمز المميّز لأنّ المحتوى يحتوي على عبارات محظورة. |
PROHIBITED_CONTENT |
تم إيقاف إنشاء الرموز المميّزة بسبب احتمال احتوائها على محتوى محظور. |
SPII |
تم إيقاف إنشاء الرموز المميّزة لأنّه من المحتمل أن يتضمّن المحتوى معلومات حسّاسة تكشف عن الهويّة (SPII). |
MALFORMED_FUNCTION_CALL |
استدعاء الدالة الذي ينشئه النموذج غير صالح. |
GroundingAttribution
تحديد المصدر الذي ساهم في الحصول على إجابة
sourceId
object (AttributionSourceId
)
النتائج فقط. معرّف للمصدر الذي يساهم في عملية تحديد المصدر هذه.
content
object (Content
)
يشير إلى محتوى المصدر الأساسي الذي يتألّف من عملية تحديد المصدر.
تمثيل JSON |
---|
{ "sourceId": { object ( |
AttributionSourceId
معرّف للمصدر الذي يساهم في عملية تحديد المصدر هذه.
حقل الاتحاد source
.
يمكن أن يكون source
واحدًا فقط مما يلي:
groundingPassage
object (GroundingPassageId
)
معرّف لفقرة مضمّنة.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
تم استرجاع معرّف Chunk
عبر أداة الاسترجاع الدلالي.
تمثيل JSON |
---|
{ // Union field |
GroundingPassageId
معرّف لجزء داخل GroundingPassage
passageId
string
النتائج فقط. رقم تعريف فقرة مطابقة لـ GroundingPassage.id
في GenerateAnswerRequest
partIndex
integer
النتائج فقط. فهرس الجزء ضمن GroundingPassage.content
في GenerateAnswerRequest
.
تمثيل JSON |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
تم استرداد معرِّف Chunk
عبر أداة استرداد الدلالات الدلالية المحدّدة في GenerateAnswerRequest
باستخدام SemanticRetrieverConfig
.
source
string
النتائج فقط. اسم المصدر الذي يتطابق مع SemanticRetrieverConfig.source
للطلب مثال: corpora/123
أو corpora/123/documents/abc
chunk
string
النتائج فقط. اسم Chunk
الذي يحتوي على النص الذي تم تحديد مصدره. مثلاً: corpora/123/documents/abc/chunks/xyz
تمثيل JSON |
---|
{ "source": string, "chunk": string } |
CitationMetadata
يشير ذلك المصطلح إلى مجموعة من عمليات تحديد المصدر الخاصة بجزء من المحتوى.
citationSources[]
object (CitationSource
)
الاقتباسات من مصادر ردّ محدّد
تمثيل JSON |
---|
{
"citationSources": [
{
object ( |
CitationSource
يشير إلى الاقتباس من مصدر لجزء من ردّ محدّد.
startIndex
integer
اختياريّ. بداية شريحة الردّ المنسوبة إلى هذا المصدر
يشير المؤشر إلى بداية المقطع، ويتم قياسه بالبايت.
endIndex
integer
اختياريّ. نهاية المقطع المنسوب، حصري.
uri
string
اختياريّ. هو معرّف موارد منتظم (URI) المنسوبة إليه كمصدر لجزء من النص.
license
string
اختياريّ. ترخيص مشروع GitHub الذي تم تحديده كمصدر للقسم
يجب إدخال معلومات الترخيص عند الاقتباس من الرموز.
تمثيل JSON |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
خيارات الضبط لإنشاء النماذج والنتائج ليست كل المعلمات قابلة للتهيئة لكل نموذج.
stopSequences[]
string
اختياريّ. تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. وإذا تم تحديده، ستتوقف واجهة برمجة التطبيقات عند ظهور stop_sequence
للمرة الأولى. ولن يتمّ تضمين تسلسل المحطة كجزء من الردّ.
responseMimeType
string
اختياريّ. نوع MIME للنص المرشح الذي تم إنشاؤه. أنواع MIME المتوافقة هي: text/plain
: إخراج النص (الإعداد التلقائي). application/json
: استجابة JSON في العناصر المحفّزة للاستجابة يُرجى الرجوع إلى المستندات للحصول على قائمة بجميع أنواع MIME للنصوص المتوافقة.
responseSchema
object (Schema
)
اختياريّ. مخطّط الإخراج للنص المقترَح الذي تم إنشاؤه يجب أن تكون المخططات مجموعة فرعية من مخطط OpenAPI ويمكن أن تكون كائنات أو عناصر أولية أو مصفوفات.
في حال ضبط السياسة، يجب ضبط responseMimeType
متوافق أيضًا. أنواع MIME المتوافقة: application/json
: مخطط لاستجابة JSON. راجِع دليل إنشاء النص بتنسيق JSON للحصول على مزيد من التفاصيل.
candidateCount
integer
اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.
في الوقت الحالي، يمكن ضبط هذه القيمة على 1 فقط. في حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.
maxOutputTokens
integer
اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في عنصر محفّز لعرض الردّ.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.output_token_limit
لـ Model
التي يتم عرضها من الدالة getModel
.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature
لـ Model
التي يتم عرضها من الدالة getModel
.
يمكن أن تتراوح القيم من [0.0، 2.0].
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج العينات المجمّعة من Top-k وTop-p (النواة).
يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. يؤدي أخذ العينات من المستوى الأعلى (K) إلى تحديد الحد الأقصى لعدد الرموز المميّزة بشكل مباشر، في حين أنّ أخذ العينات من النواة يحدّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب Model
ويتم تحديدها من خلال السمة Model.top_p
التي تعرضها الدالة getModel
. تشير السمة topK
الفارغة إلى أنّ النموذج لا يطبّق أخذ العيّنات للأعلى ولا يسمح بإعداد topK
على الطلبات.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
تعتمد نماذج Gemini على أخذ العيّنات من المستوى الأعلى (النواة) أو مزيج من عينات البيانات من المستوى الأعلى والنواة. وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا. لا تسمح النماذج التي تعمل باستخدام عينات النواة بإعداد أعلىK.
ملاحظة: تختلف القيمة التلقائية حسب Model
ويتم تحديدها من خلال السمة Model.top_p
التي تعرضها الدالة getModel
. تشير السمة topK
الفارغة إلى أنّ النموذج لا يطبّق أخذ العيّنات للأعلى ولا يسمح بإعداد topK
على الطلبات.
تمثيل JSON |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
فئة التقييم.
تتناول هذه الفئات أنواعًا مختلفة من الأضرار التي قد يرغب المطوّرون في تعديلها.
عمليات التعداد | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
لم يتم تحديد الفئة. |
HARM_CATEGORY_DEROGATORY |
تعليقات سلبية أو ضارة تستهدف الهوية و/أو السمة المحمية |
HARM_CATEGORY_TOXICITY |
محتوى فظ أو مُهين أو مكتوب بلغة نابية |
HARM_CATEGORY_VIOLENCE |
تصف السيناريوهات التي تصور العنف ضد فرد أو جماعة، أو أوصافًا عامة للمحتوى الدموي. |
HARM_CATEGORY_SEXUAL |
يحتوي على إشارات إلى أفعال جنسية أو محتوى بذيء آخر. |
HARM_CATEGORY_MEDICAL |
يروّج للنصائح الطبية التي لم يتم التحقّق منها |
HARM_CATEGORY_DANGEROUS |
المحتوى الخطير الذي يروّج لأفعال ضارّة أو يسهّل تنفيذها أو يشجّع عليها |
HARM_CATEGORY_HARASSMENT |
المحتوى الذي يهدف إلى المضايقة: |
HARM_CATEGORY_HATE_SPEECH |
المحتوى والكلام الذي يحض على الكراهية: |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
المحتوى الجنسي الفاضح: |
HARM_CATEGORY_DANGEROUS_CONTENT |
المحتوى الخطير: |
SafetyRating
تقييم الأمان لجزء من المحتوى
يتضمّن تقييم الأمان فئة الضرر ومستوى احتمالية الضرر في تلك الفئة لجزء من المحتوى. ويتم تصنيف المحتوى للحفاظ على السلامة ضمن عدد من فئات الضرر، وقد تم إدراج احتمالية هذا التصنيف هنا.
category
enum (HarmCategory
)
مطلوب. فئة هذا التقييم.
probability
enum (HarmProbability
)
مطلوب. احتمالية الضرر لهذا المحتوى.
blocked
boolean
هل تم حظر هذا المحتوى بسبب هذا التقييم؟
تمثيل JSON |
---|
{ "category": enum ( |
HarmProbability
يشير ذلك المصطلح إلى احتمالية أن يكون جزء من المحتوى ضارًا.
يمنح نظام التصنيف احتمالية أن يكون المحتوى غير آمن. ولا يشير ذلك إلى خطورة الضرر الناتج عن محتوى معيّن.
عمليات التعداد | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
لم يتم تحديد الاحتمال. |
NEGLIGIBLE |
إن فرصة المحتوى غير آمنة ضئيلة. |
LOW |
إنّ احتمال أن يصبح المحتوى غير آمن بنسبة منخفضة. |
MEDIUM |
هناك احتمال متوسط بأن يكون المحتوى غير آمن. |
HIGH |
هناك احتمال كبير بأن يكون المحتوى غير آمن. |
SafetySetting
إعداد الأمان الذي يؤثر في سلوك حظر الأمان.
يؤدي ضبط إعداد الأمان لفئة معيّنة إلى تغيير الاحتمالية المسموح بحظر المحتوى.
category
enum (HarmCategory
)
مطلوب. الفئة لهذا الإعداد.
threshold
enum (HarmBlockThreshold
)
مطلوب. تتحكّم هذه السياسة في حدّ الاحتمال الذي يتم عنده حظر الضرر.
تمثيل JSON |
---|
{ "category": enum ( |
HarmBlockThreshold
الحظر عند احتمال الضرر المحدد أو تجاوزه
عمليات التعداد | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
الحدّ غير محدَّد. |
BLOCK_LOW_AND_ABOVE |
سيتم السماح بعرض المحتوى الذي يتضمن NEGLIGIBLE. |
BLOCK_MEDIUM_AND_ABOVE |
سيتم السماح بعرض المحتوى الذي يتضمن NEGLIGIBLE وLOW. |
BLOCK_ONLY_HIGH |
سيُسمَح بعرض المحتوى الذي يتضمّن NEGLIGIBLE وLOW وMEDIUM. |
BLOCK_NONE |
سيتم السماح بكل المحتوى. |