الطريقة: models.generateText
تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
مَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المراد استخدامه لإنشاء عملية الإنجاز. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. نص الإدخال الذي لا يتّبع تنسيقًا معيّنًا والذي يتم تقديمه للنموذج كطلب
استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.
safetySettings[]
object (SafetySetting
)
اختيارية: قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن
التي سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّد في safetySettings. إذا لم يكن هناك SafetySetting
لـ SafetyCategory
معيّن مقدَّم في القائمة، ستستخدم واجهة برمجة التطبيقات إعدادات السلامة التلقائية لهذه الفئة. يمكن استخدام فئات المحتوى الضار HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXICITY وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDICAL وHARM_CATEGORY_DANGEROUS في خدمة النصوص.
stopSequences[]
string
مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي ستؤدي إلى إيقاف إنشاء الإخراج في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.
temperature
number
اختيارية: تتحكّم هذه السمة في العشوائية في الإخراج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.temperature
لدالة Model
التي تم عرضها في دالة getModel
.
يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. ستؤدي القيمة الأقرب إلى 1.0 إلى تقديم ردود أكثر تنوعًا وإبداعًا، في حين ستؤدي القيمة الأقرب إلى 0.0 إلى تقديم ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختيارية: عدد الردود التي تم إنشاؤها المطلوب عرضها.
يجب أن تتراوح هذه القيمة بين [1, 8] (بما في ذلك). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.
maxOutputTokens
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح
في حال عدم ضبطها، سيتم ضبطها تلقائيًا على outputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختيارية: الحد الأقصى الاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العينات
يستخدم النموذج أسلوب أخذ عيّنات Top-k وأسلوب أخذ عيّنات النوى معًا.
يتم ترتيب الرموز بناءً على الاحتمالات المحدّدة لها حتى لا يتمّ أخذ سوى الرموز الأكثر احتمالًا في الاعتبار. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p
لدالة Model
التي تعرضها الدالة getModel
.
topK
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ عيّنات
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
تأخذ تقنية أخذ عيّنات من أهمّ k عنصرًا في الاعتبار مجموعة من topK
الرموز الأكثر احتمالًا. القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k
لدالة Model
التي تعرضها الدالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
الطريقة: models.countTextTokens
تُشغِّل هذه الدالة أداة تقسيم النصوص في النموذج على نص معيّن وتُعرِض عدد الوحدات.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويُستخدَم هذا الرمز كمعرّف للنموذج.
يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list
.
التنسيق: models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. نص الإدخال الذي لا يتّبع تنسيقًا معيّنًا والذي يتم تقديمه للنموذج كطلب
نص الاستجابة
ردّ من "models.countTextTokens
"
ويعرض tokenCount
للنموذج prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تُقسّم model
prompt
إلى أجزاء.
تكون دائمًا غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: models.generateMessage
تُنشئ هذه الوظيفة ردًا من النموذج استنادًا إلى إدخال MessagePrompt
.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
مَعلمات المسار
model
string
مطلوب. اسم النموذج المطلوب استخدامه.
التنسيق: name=models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. الإدخال النصي المُنظم الذي يتم تقديمه للنموذج كطلب
استنادًا إلى طلب، سيعرض النموذج الرسالة التي يتوقّع أن تكون الرسالة التالية في المناقشة.
temperature
number
اختيارية: تتحكّم هذه السمة في العشوائية في الإخراج.
يمكن أن تتراوح القيم على نطاق أوسع من [0.0,1.0]
. ستؤدي القيمة الأقرب إلى 1.0
إلى تقديم ردود أكثر تنوعًا، في حين أنّ القيمة الأقرب إلى 0.0
ستؤدي عادةً إلى تقديم ردود أقل غرابة من النموذج.
candidateCount
integer
اختيارية: عدد رسائل الردّ التي تم إنشاؤها المطلوب عرضها.
يجب أن تتراوح هذه القيمة بين [1, 8]
، بما في ذلك الرقمان. في حال عدم ضبط القيمة، سيتم ضبطها تلقائيًا على 1
.
topP
number
اختيارية: الحد الأقصى الاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العينات
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
تأخذ تقنية جمع عيّنات النوى في الاعتبار أصغر مجموعة من الرموز التي يكون مجموع احتمالاتها topP
على الأقل.
topK
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ عيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
تأخذ تقنية أخذ عيّنات من أهمّ k عنصرًا في الاعتبار مجموعة من topK
الرموز الأكثر احتمالًا.
نص الاستجابة
الاستجابة من النموذج
ويشمل ذلك الرسائل المُحتمَلة وسجلّ المحادثات في شكل رسائل مرتبة زمنيًا.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
candidates[]
object (Message
)
رسائل الردود المُحتمَلة من النموذج
messages[]
object (Message
)
سجلّ المحادثة المستخدَم من قِبل النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى لنص الطلب والردّ
يشير ذلك إلى SafetyCategory
التي منعت عنصرًا محفّزًا لعرض الإعلان من هذه الاستجابة، وأدنى HarmProbability
أدّى إلى الحظر، وإعداد HarmThreshold لهذه الفئة.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
الطريقة: models.countMessageTokens
يُشغِّل أداة تقسيم النصوص في النموذج على سلسلة ويعرض عدد الرموز.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويُستخدَم هذا الرمز كمعرّف للنموذج.
يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list
.
التنسيق: models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. الطلب الذي سيتم عرض عدد الرموز المميّزة له.
نص الاستجابة
ردّ من "models.countMessageTokens
"
ويعرض tokenCount
للنموذج prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تُقسّم model
prompt
إلى أجزاء.
تكون دائمًا غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: models.embedText
تُنشئ عملية دمج من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
مَعلمات المسار
model
string
مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}. يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
text
string
اختيارية: نص الإدخال الذي لا يتّبع تنسيقًا معيّنًا والذي سيحوّله النموذج إلى عنصر إدراج
الطريقة: models.batchEmbedText
تُنشئ هذه الدالة عناصر مضمّنة متعددة من النموذج الذي تم تقديم نص الإدخال له في مكالمة متزامنة.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
مَعلمات المسار
model
string
مطلوب. اسم Model
المراد استخدامه لإنشاء المحتوى المضمّن. على سبيل المثال: models/embedding-gecko-001، ويتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
texts[]
string
اختيارية: نصوص الإدخال التي لا تتّبع تنسيقًا معيّنًا والتي سيحوّلها النموذج إلى عنصر إدراج الحدّ الأقصى الحالي هو 100 نص، وسيتمّ عرض خطأ في حال تجاوز هذا العدد.
requests[]
object (EmbedTextRequest
)
اختيارية: تضمين طلبات للدفعة لا يمكن ضبط سوى قيمة واحدة من texts
أو requests
.
نص الاستجابة
الردّ على EmbedTextRequest
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
embeddings[]
object (Embedding
)
النتائج فقط. القيم المضمّنة التي تم إنشاؤها من النص الذي تم إدخاله
تمثيل JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
طلب الحصول على نص مضمّن من النموذج
model
string
مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}.
text
string
اختيارية: نص الإدخال الذي لا يتّبع تنسيقًا معيّنًا والذي سيحوّله النموذج إلى عنصر إدراج
تمثيل JSON |
---|
{ "model": string, "text": string } |
الطريقة: tunedModels.generateText
تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
مَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المراد استخدامه لإنشاء عملية الإنجاز. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل tunedModels/{tunedmodel}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. نص الإدخال الذي لا يتّبع تنسيقًا معيّنًا والذي يتم تقديمه للنموذج كطلب
استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.
safetySettings[]
object (SafetySetting
)
اختيارية: قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن
التي سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّد في safetySettings. إذا لم يكن هناك SafetySetting
لـ SafetyCategory
معيّن مقدَّم في القائمة، ستستخدم واجهة برمجة التطبيقات إعدادات السلامة التلقائية لهذه الفئة. يمكن استخدام فئات المحتوى الضار HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXICITY وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDICAL وHARM_CATEGORY_DANGEROUS في خدمة النصوص.
stopSequences[]
string
مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي ستؤدي إلى إيقاف إنشاء الإخراج في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.
temperature
number
اختيارية: تتحكّم هذه السمة في العشوائية في الإخراج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.temperature
لدالة Model
التي تم عرضها في دالة getModel
.
يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. ستؤدي القيمة الأقرب إلى 1.0 إلى تقديم ردود أكثر تنوعًا وإبداعًا، في حين ستؤدي القيمة الأقرب إلى 0.0 إلى تقديم ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختيارية: عدد الردود التي تم إنشاؤها المطلوب عرضها.
يجب أن تتراوح هذه القيمة بين [1, 8] (بما في ذلك). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.
maxOutputTokens
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح
في حال عدم ضبطها، سيتم ضبطها تلقائيًا على outputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختيارية: الحد الأقصى الاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العينات
يستخدم النموذج أسلوب أخذ عيّنات Top-k وأسلوب أخذ عيّنات النوى معًا.
يتم ترتيب الرموز بناءً على الاحتمالات المحدّدة لها حتى لا يتمّ أخذ سوى الرموز الأكثر احتمالًا في الاعتبار. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p
لدالة Model
التي تعرضها الدالة getModel
.
topK
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ عيّنات
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
تأخذ تقنية أخذ عيّنات من أهمّ k عنصرًا في الاعتبار مجموعة من topK
الرموز الأكثر احتمالًا. القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k
لدالة Model
التي تعرضها الدالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
ContentFilter
البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد
يحتوي ContentFilter على سبب وسلسلة داعمة اختيارية. وقد يكون السبب غير محدّد.
reason
enum (BlockedReason
)
سبب حظر المحتوى أثناء معالجة الطلب
message
string
سلسلة تصف سلوك الفلترة بمزيد من التفصيل
تمثيل JSON |
---|
{
"reason": enum ( |
BlockedReason
قائمة بأسباب حظر المحتوى
عمليات التعداد | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
لم يتم تحديد سبب الحظر. |
SAFETY |
تم حظر المحتوى من خلال إعدادات الأمان. |
OTHER |
تم حظر المحتوى، ولكن السبب غير مصنّف. |
التضمين
قائمة بالأعداد العشرية التي تمثّل عملية التضمين
value[]
number
قيم التضمين
تمثيل JSON |
---|
{ "value": [ number ] } |
الرسالة
الوحدة الأساسية للنص المنظَّم.
يتضمّن Message
author
وcontent
من Message
.
يتم استخدام author
لتصنيف الرسائل عند إرسالها إلى النموذج كنص.
content
string
مطلوب. محتوى النص في Message
منظَّمة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاستشهاد content
التي تم إنشاؤها بالاستناد إلى نموذج في هذا Message
إذا تمّ إنشاء هذا Message
كنتيجة من النموذج، قد يتمّ ملء هذا الحقل بمعلومات تحديد المصدر لأيّ نصّ مضمّن في content
. لا يُستخدَم هذا الحقل إلا في النتائج.
تمثيل JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
جميع نص الإدخال المنظَّم الذي تم تمريره إلى النموذج كطلب
يحتوي MessagePrompt
على مجموعة من الحقول المنظَّمة التي توفّر سياقًا للمحادثة، وأمثلة على أزواج الرسائل التي يرسلها المستخدم/يرسلها النموذج لإعداد النموذج للردّ بطرق مختلفة، وسجلّ المحادثة أو قائمة الرسائل التي تمثّل الأدوار المتبادلة للمحادثة بين المستخدم والنموذج.
context
string
اختيارية: النص الذي يجب تقديمه إلى النموذج أولاً لتحديد سياق الردّ
إذا لم يكن فارغًا، سيتم منح هذا العنصر context
للنموذج أولاً قبل examples
وmessages
. عند استخدام context
، احرص على تقديمه مع كل طلب للحفاظ على الاستمرارية.
يمكن أن يكون هذا الحقل وصفًا لطلبك الموجَّه إلى النموذج للمساعدة في توفير السياق وتوجيه الردود. على سبيل المثال: "ترجمة العبارة من الإنجليزية إلى الفرنسية" أو "بناءً على بيان معيّن، يجب تصنيف العاطفة على أنّها سعيدة أو حزينة أو محايدة".
سيُمنَح أيّ محتوى مضمّن في هذا الحقل الأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج وتم اقتطاع طلب الإدخال.
examples[]
object (Example
)
اختيارية: أمثلة على ما يجب أن ينشئه النموذج
ويشمل ذلك كلاً من بيانات المستخدم والاستجابة التي يجب أن يحاكيها النموذج.
تتم معالجة هذه examples
بالطريقة نفسها التي تتم بها معالجة رسائل المحادثات، باستثناء أنّها تحظى بالأولوية على السجلّ في messages
: إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج، سيتم اقتطاع الإدخال. ستتم إزالة العناصر من messages
قبل examples
.
messages[]
object (Message
)
مطلوب. لقطة شاشة لسجلّ المحادثات الأخيرة مرتبة حسب الترتيب الزمني
تتناوب الأدوار بين مؤلفَين.
إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج، سيتم اقتطاع الإدخال: سيتم حذف العناصر الأقدم من messages
.
مثال
GenerateTextResponse
الاستجابة الواردة من النموذج، بما في ذلك عمليات إكمال النموذج المحتملة
candidates[]
object (TextCompletion
)
الردود المُحتمَلة من النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى لنص الطلب والردّ
يشير ذلك إلى SafetyCategory
التي منعت عنصرًا محفّزًا لعرض الإعلان من هذه الاستجابة، وأدنى HarmProbability
أدّى إلى الحظر، وإعداد HarmThreshold لهذه الفئة. يشير ذلك إلى أصغر تغيير في SafetySettings
سيكون ضروريًا لإزالة حظر استجابة واحدة على الأقل.
يتم ضبط عملية الحظر من خلال SafetySettings
في الطلب (أو SafetySettings
التلقائي لواجهة برمجة التطبيقات).
safetyFeedback[]
object (SafetyFeedback
)
تعرِض هذه السمة أي ملاحظات حول الأمان ذات الصلة بفلترة المحتوى.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
النص الناتج الذي تم إرجاعه من نموذج
output
string
النتائج فقط. النص الذي تم إنشاؤه من النموذج
safetyRatings[]
object (SafetyRating
)
تقييمات لأمان الردّ
يجب أن يكون هناك تقييم واحد كحد أقصى لكل فئة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاستشهاد output
التي تم إنشاؤها بالاستناد إلى نموذج في هذا TextCompletion
قد يتمّ ملء هذا الحقل بمعلومات تحديد المصدر لأيّ نصّ مضمّن في output
.
تمثيل JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ملاحظات حول الأمان لطلب كامل
يتم تعبئة هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات السلامة. قد لا يتوفّر الحقل SafetyFeedback لكل فئة من فئات الضرر. سيعرض كلّ SafetyFeedback إعدادات الأمان المستخدَمة في الطلب، بالإضافة إلى أدنى قيمة لـ HarmProbability يجب السماح بها لعرض نتيجة.
rating
object (SafetyRating
)
يتم تقييم تقييم السلامة استنادًا إلى المحتوى.
setting
object (SafetySetting
)
إعدادات الأمان المطبَّقة على الطلب
تمثيل JSON |
---|
{ "rating": { object ( |