الطريقة: model.generateText
تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextمَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المُستخدَم لإنشاء عملية الإنجاز. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن
التي سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّد في safetySettings. في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.
stopSequences[]
string
تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.
يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.
maxOutputTokens
integer
اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح
في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على outputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p
لدالة Model
التي تم عرضها في دالة getModel
.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k
لدالة Model
التي تم عرضها في دالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
الطريقة: model.countTextTokens
تُشغِّل هذه الدالة أداة تقسيم النصوص في النموذج على نص معيّن وتُعرِض عدد الوحدات.
نقطة نهاية
منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensمَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.
يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list
.
التنسيق: models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
نص الاستجابة
رد من models.countTextTokens
.
وهي تعرض tokenCount
للنموذج لـ prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تستخدمها model
لتحويل prompt
إلى رموز مميّزة.
تكون دائمًا غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: models.generateMessage
تُنشئ هذه الوظيفة ردًا من النموذج استنادًا إلى إدخال MessagePrompt
.
نقطة نهاية
منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageمَعلمات المسار
model
string
مطلوب. اسم النموذج المطلوب استخدامه.
التنسيق: name=models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. الإدخال النصي المُنظَّم الذي يتم تقديمه للنموذج كطلب
عند وجود مطالبة، سيعرض النموذج الرسالة التالية في المناقشة ويتوقعه.
temperature
number
اختياريّ. تتحكّم هذه السمة في العشوائية في الإخراج.
يمكن أن تتجاوز القيم [0.0,1.0]
، بشكل شامل. أمّا القيمة الأقرب من 1.0
، فستؤدي إلى ردود أكثر تنوعًا، في حين تؤدي القيمة الأقرب من 0.0
عادةً إلى استجابات أقل إثارة للدهشة من النموذج.
candidateCount
integer
اختياريّ. عدد رسائل الردّ التي تم إنشاؤها المطلوب عرضها.
يجب أن تكون هذه القيمة بين [1, 8]
بشكل شامل. وفي حال عدم ضبطها، سيتم ضبطها تلقائيًا على 1
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.
ويراعي أخذ العينات من النواة أصغر مجموعة من الرموز المميّزة التي يكون مجموع احتمالية حدوثها topP
على الأقل.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا.
نص الاستجابة
الاستجابة من النموذج
ويشمل ذلك الرسائل المُحتمَلة وسجلّ المحادثات في شكل رسائل مرتبة زمنيًا.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
candidates[]
object (Message
)
رسائل الردّ المُقترَحة من النموذج
messages[]
object (Message
)
سجلّ المحادثات الذي يستخدمه النموذج.
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability
التي أدت إلى حظر، وإعداد الضرر لهذه الفئة.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
الطريقة: models.countMessageTokens
يشغّل أداة إنشاء الرموز المميّزة للنموذج على سلسلة وتعرض عدد الرموز المميّزة.
نقطة نهاية
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensمَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.
يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list
.
التنسيق: models/{model}
يكون على الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. المطالبة التي سيتم عرض عدد رموزها المميزة.
نص الاستجابة
ردّ من "models.countMessageTokens
"
ويعرض tokenCount
للنموذج prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تستخدمها model
لتحويل prompt
إلى رموز مميّزة.
تكون دائمًا غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: model.embedText
تُنشئ هذه الدالة تمثيلاً مضمّنًا من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextمَعلمات المسار
model
string
مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}. ويكون على النحو models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
text
string
اختياريّ. النص ذو التصميم المرن الذي سيتحوله النموذج إلى تضمين.
الطريقة: models.batchEmbedText
تنشئ هذه الدالة تضمينات متعددة من النموذج الذي يحتوي على نص إدخال في مكالمة متزامنة.
نقطة نهاية
منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextمَعلمات المسار
model
string
مطلوب. اسم Model
المراد استخدامه لإنشاء المحتوى المضمّن. على سبيل المثال: models/embedding-gecko-001، ويتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
texts[]
string
اختياريّ. نصوص الإدخال التي لا تتّبع تنسيقًا معيّنًا والتي سيحوّلها النموذج إلى تمثيل مضمّن. الحدّ الأقصى الحالي هو 100 نص، وسيتم عرض خطأ عند تجاوز هذا العدد.
requests[]
object (EmbedTextRequest
)
اختياريّ. تضمين طلبات للدفعة يمكن ضبط سمة واحدة فقط من texts
أو requests
.
نص الاستجابة
الاستجابة لـ EmbedTextRequest.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
embeddings[]
object (Embedding
)
النتائج فقط. التضمينات التي تم إنشاؤها من النص الذي تم إدخاله
تمثيل JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
طلب الحصول على تضمين نص من النموذج.
model
string
مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}.
text
string
اختياريّ. النص ذو التصميم المرن الذي سيتحوله النموذج إلى تضمين.
تمثيل JSON |
---|
{ "model": string, "text": string } |
الطريقة: recognizedModels.generateText
تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.
نقطة نهاية
منشور https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextمَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المطلوب استخدامه لإنشاء الإكمال. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل tunedModels/{tunedmodel}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن
التي سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّد في safetySettings. في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.
stopSequences[]
string
تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.
يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.
maxOutputTokens
integer
اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح
في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على outputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p
لدالة Model
التي تم عرضها في دالة getModel
.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k
لدالة Model
التي تم عرضها في دالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
ContentFilter
البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد
يحتوي ContentFilter على سبب وسلسلة داعمة اختيارية. قد يكون السبب غير محدّد.
reason
enum (BlockedReason
)
سبب حظر المحتوى أثناء معالجة الطلب
message
string
سلسلة تصف سلوك الفلترة بمزيد من التفصيل
تمثيل JSON |
---|
{
"reason": enum ( |
BlockedReason
قائمة بأسباب حظر المحتوى
عمليات التعداد | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
لم يتم تحديد سبب الحظر. |
SAFETY |
تم حظر المحتوى من خلال إعدادات الأمان. |
OTHER |
تم حظر المحتوى، ولكن السبب غير مصنّف. |
التضمين
قائمة بالقيم العائمة التي تمثل التضمين.
value[]
number
قيم التضمين
تمثيل JSON |
---|
{ "value": [ number ] } |
الرسالة
تمثّل هذه السمة الوحدة الأساسية للنص المنظم.
يتضمّن Message
author
وcontent
Message
.
يتم استخدام author
لوضع علامة على الرسائل عند إضافتها إلى النموذج على أنّها نص.
content
string
مطلوب. المحتوى النصي لسمة Message
المنظَّمة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاستشهاد لـ content
التي أنشأها النموذج في هذا Message
إذا تم إنشاء Message
كإخراج من النموذج، قد تتم تعبئة هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content
. يُستخدم هذا الحقل في الناتج فقط.
تمثيل JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
جميع نص الإدخال المنظَّم الذي تم تمريره إلى النموذج كطلب
يحتوي MessagePrompt
على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج رسائل النتائج التي يُدخِلها المستخدم/النموذج، والتي تُعِد النموذج للرد بطرق مختلفة، وسجلّ المحادثات أو قائمة الرسائل التي تمثّل منعطفات المحادثة بين المستخدم والنموذج.
context
string
اختياريّ. النص الذي يجب تقديمه إلى النموذج أولاً لتحديد سياق الردّ
إذا لم يكن الحقل فارغًا، سيتم منح context
هذا للنموذج أولاً قبل examples
وmessages
. عند استخدام "context
"، احرص على تقديم كل طلب للحفاظ على استمرارية الاستخدام.
يمكن أن يكون هذا الحقل وصفًا لطلبك الموجَّه إلى النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجمة العبارة من الإنجليزية إلى الفرنسية". أو "بعد نطق عبارة، صنّف العاطفة على أنها سعيدة أو حزينة أو محايدة".
سيُمنَح أيّ محتوى مضمّن في هذا الحقل الأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج وتم اقتطاع طلب الإدخال.
examples[]
object (Example
)
اختياريّ. أمثلة على ما يجب أن يُنشئه النموذج
ويشمل ذلك كلاً من بيانات المستخدم والاستجابة التي يجب أن يحاكيها النموذج.
تتم معالجة هذه examples
بالطريقة نفسها التي تتم بها معالجة رسائل المحادثات، باستثناء أنّها تحظى بالأولوية على السجلّ في messages
: إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج، سيتم اقتطاع الإدخال. سيتم إسقاط العناصر من messages
قبل examples
.
messages[]
object (Message
)
مطلوب. لقطة شاشة لسجلّ المحادثات الأخيرة مرتبة حسب الترتيب الزمني
تتناوب الأدوار بين مؤلفَين.
إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج، سيتم اقتطاع الإدخال: سيتم حذف العناصر الأقدم من messages
.
مثال
GenerateTextResponse
تمثّل هذه السمة الاستجابة من النموذج، بما في ذلك عمليات إكمال المرشحين.
candidates[]
object (TextCompletion
)
ردود المرشحين من النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
التي منعت عنصرًا محفّزًا لعرض الإعلان من هذه الاستجابة، وأدنى HarmProbability
أدّى إلى الحظر، وإعداد HarmThreshold لهذه الفئة. يشير ذلك إلى أصغر تغيير في SafetySettings
سيكون ضروريًا لإزالة حظر استجابة واحدة على الأقل.
يتم ضبط عملية الحظر من خلال SafetySettings
في الطلب (أو SafetySettings
التلقائي لواجهة برمجة التطبيقات).
safetyFeedback[]
object (SafetyFeedback
)
تعرِض هذه السمة أي ملاحظات حول الأمان ذات الصلة بفلترة المحتوى.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
نص الإخراج الذي تم إرجاعه من نموذج
output
string
النتائج فقط. النص الذي تم إنشاؤه الذي يتم عرضه من النموذج.
safetyRatings[]
object (SafetyRating
)
تقييمات بشأن أمان ردّ
يتوفّر تقييم واحد كحدّ أقصى لكل فئة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات التوثيق لـ output
الذي تم إنشاؤه من خلال النموذج في TextCompletion
قد يتمّ ملء هذا الحقل بمعلومات تحديد المصدر لأيّ نصّ مضمّن في output
.
تمثيل JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
إرسال ملاحظات حول الأمان لطلب كامل
يتم تعبئة هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات السلامة. قد لا يتوفّر الحقل SafetyFeedback لكل فئة من فئات المحتوى الضار. ستعرض كل SafetyFeedback إعدادات السلامة التي يستخدمها الطلب، بالإضافة إلى أقل احتمالية ضرر يجب السماح بها من أجل عرض النتيجة.
rating
object (SafetyRating
)
يتم تقييم تقييم السلامة استنادًا إلى المحتوى.
setting
object (SafetySetting
)
إعدادات الأمان المطبَّقة على الطلب
تمثيل JSON |
---|
{ "rating": { object ( |