الطريقة: model.generateText
إنشاء رد من النموذج لرسالة إدخال.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
مَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المطلوب استخدامه لإنشاء الإكمال. أمثلة: model/text-bison-001 approvedModels/sentence-translator-u3b7m تتخذ النموذج models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
عند الطلب، سيُنشئ النموذج رد Textcomplete يتنبأ باكتمال نص الإدخال.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن.
سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي وضعتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.
stopSequences[]
string
تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. وفي حال تحديده، ستتوقّف واجهة برمجة التطبيقات عند أول ظهور لتسلسل محطات التوقف. ولن يتمّ تضمين تسلسل المحطة كجزء من الردّ.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
ويمكن أن تتراوح القيم من [0.0،1.0]، ضمنًا. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.
يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.
maxOutputTokens
integer
اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في عنصر مرشح.
في حال ترك هذه السياسة بدون ضبط، سيتم ضبط السياسة تلقائيًا علىOutputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. ويحدّ أخذ العينات من المستوى الأعلى (K) مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين أنّ أخذ العينات من النواة يحدّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_p
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_k
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
الطريقة: model.countTextTokens
لتشغيل أداة إنشاء رموز مميّزة للنموذج على نص وعرض عدد الرموز المميّزة
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.
ويجب أن يتطابق هذا الاسم مع اسم النموذج الذي تعرضه الطريقة models.list
.
التنسيق: models/{model}
يأخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
نص الاستجابة
رد من models.countTextTokens
.
وهي تعرض tokenCount
للنموذج لـ prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تستخدمها model
لتحويل prompt
إلى رموز مميّزة.
تكون غير سلبية دائمًا.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: model.generateMessage
تنشئ هذه الدالة استجابة من النموذج استنادًا إلى إدخال MessagePrompt
.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
مَعلمات المسار
model
string
مطلوب. اسم النموذج المطلوب استخدامه.
التنسيق: name=models/{model}
ويكون على النحو models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. تمثّل هذه السمة الإدخال النصي المنظم الذي يتم تقديمه للنموذج كطلب.
عند وجود مطالبة، سيعرض النموذج الرسالة التالية في المناقشة ويتوقعه.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج.
يمكن أن تتجاوز القيم [0.0,1.0]
، بشكل شامل. أمّا القيمة الأقرب من 1.0
، فستؤدي إلى ردود أكثر تنوعًا، في حين تؤدي القيمة الأقرب من 0.0
عادةً إلى استجابات أقل إثارة للدهشة من النموذج.
candidateCount
integer
اختياريّ. عدد رسائل الرد التي تم إنشاؤها والتي سيتم عرضها
يجب أن تكون هذه القيمة بين [1, 8]
بشكل شامل. وفي حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
ويأخذ أخذ العينات من النواة بعين الاعتبار أصغر مجموعة من الرموز المميّزة التي يكون مجموع احتمالية حدوثها topP
على الأقل.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا.
نص الاستجابة
يشير ذلك المصطلح إلى الاستجابة الواردة من النموذج.
ويشمل ذلك رسائل المرشّحين وسجلّ المحادثات في شكل رسائل مرتَّبة ترتيبًا زمنيًا.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
candidates[]
object (Message
)
رسائل ردّ المرشّح من النموذج.
messages[]
object (Message
)
سجلّ المحادثات الذي يستخدمه النموذج.
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability
الذي أدى إلى ظهور حظر، وإعداد الضرر لهذه الفئة.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
الطريقة: model.countMessageTokens
يشغّل أداة إنشاء الرموز المميّزة للنموذج على سلسلة وتعرض عدد الرموز المميّزة.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.
ويجب أن يتطابق هذا الاسم مع اسم النموذج الذي تعرضه الطريقة models.list
.
التنسيق: models/{model}
يأخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. المطالبة، التي سيتم عرض عدد رموزها المميزة.
نص الاستجابة
رد من models.countMessageTokens
.
وهي تعرض tokenCount
للنموذج لـ prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميّزة التي تستخدمها model
لتحويل prompt
إلى رموز مميّزة.
تكون غير سلبية دائمًا.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: model.embedText
تنشئ هذه الدالة تضمينًا من النموذج الذي يتم تلقّي رسالة إدخال.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
مَعلمات المسار
model
string
مطلوب. اسم النموذج المراد استخدامه مع التنسيق model=models/{model}. ويكون على النحو models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
text
string
اختياريّ. النص ذو التصميم المرن الذي سيتحول إليه النموذج إلى تضمين.
الطريقة: model.batchEmbedText
تنشئ هذه الدالة تضمينات متعددة من النموذج الذي يتم إدخاله ضمن نص في مكالمة متزامنة.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
مَعلمات المسار
model
string
مطلوب. اسم Model
المراد استخدامه لإنشاء التضمين. أمثلة: model/embedding-gecko-001 واتخاذ النموذج models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
texts[]
string
اختياريّ. نصوص الإدخال ذات التصميم المرن التي سيتحولها النموذج إلى تضمين. يبلغ الحد الأقصى الحالي 100 رسالة نصية، وسيتم عرض خطأ.
requests[]
object (EmbedTextRequest
)
اختياريّ. طلبات التضمين للمجموعة يمكن ضبط سمة واحدة فقط من texts
أو requests
.
نص الاستجابة
الاستجابة لـ EmbedTextRequest.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
embeddings[]
object (Embedding
)
النتائج فقط. التضمينات التي تم إنشاؤها من النص الذي تم إدخاله
تمثيل JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
طلب الحصول على تضمين نص من النموذج.
model
string
مطلوب. اسم النموذج المراد استخدامه مع التنسيق model=models/{model}.
text
string
اختياريّ. النص ذو التصميم المرن الذي سيتحول إليه النموذج إلى تضمين.
تمثيل JSON |
---|
{ "model": string, "text": string } |
الطريقة: recognizedModels.generateText
إنشاء رد من النموذج لرسالة إدخال.
نقطة نهاية
منشور
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
مَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المطلوب استخدامه لإنشاء الإكمال. أمثلة: model/text-bison-001 approvedModels/sentence-translator-u3b7m تتخذ النموذج tunedModels/{tunedmodel}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.
عند الطلب، سيُنشئ النموذج رد Textcomplete يتنبأ باكتمال نص الإدخال.
safetySettings[]
object (SafetySetting
)
اختياريّ. قائمة بمثيلات SafetySetting
الفريدة لحظر المحتوى غير الآمن.
سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي وضعتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting
لعنصر SafetyCategory
معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.
stopSequences[]
string
تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. وفي حال تحديده، ستتوقّف واجهة برمجة التطبيقات عند أول ظهور لتسلسل محطات التوقف. ولن يتمّ تضمين تسلسل المحطة كجزء من الردّ.
temperature
number
اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
ويمكن أن تتراوح القيم من [0.0،1.0]، ضمنًا. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.
candidateCount
integer
اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.
يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.
maxOutputTokens
integer
اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في عنصر مرشح.
في حال ترك هذه السياسة بدون ضبط، سيتم ضبط السياسة تلقائيًا علىOutputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. ويحدّ أخذ العينات من المستوى الأعلى (K) مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين أنّ أخذ العينات من النواة يحدّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_p
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
topK
integer
اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.
يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.
وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK
من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_k
لـ Model
التي تم إرجاعها إلى الدالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
ContentFilter
البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد.
يحتوي ContentFilter على سبب وسلسلة داعمة اختيارية. قد يكون السبب غير محدّد.
reason
enum (BlockedReason
)
سبب حظر المحتوى أثناء معالجة الطلب.
message
string
سلسلة تصف سلوك الفلترة بمزيد من التفصيل.
تمثيل JSON |
---|
{
"reason": enum ( |
BlockedReason
قائمة بأسباب حظر المحتوى
عمليات التعداد | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
لم يتم تحديد سبب محظور. |
SAFETY |
تم حظر المحتوى وفقًا لإعدادات الأمان. |
OTHER |
تم حظر المحتوى، ولكن السبب بلا فئة. |
التضمين
قائمة بالقيم العائمة التي تمثل التضمين.
value[]
number
قيم التضمين.
تمثيل JSON |
---|
{ "value": [ number ] } |
الرسالة
تمثّل هذه السمة الوحدة الأساسية للنص المنظم.
وتشمل Message
السمة author
وcontent
من Message
.
يتم استخدام author
لوضع علامة على الرسائل عند إضافتها إلى النموذج على أنّها نص.
author
string
اختياريّ. مؤلف هذه الرسالة.
وهي بمثابة مفتاح لوضع علامة على محتوى هذه الرسالة عند إضافتها إلى النموذج كنص.
يمكن أن يكون المؤلف أي سلسلة أبجدية رقمية.
content
string
مطلوب. المحتوى النصي لسمة Message
المنظَّمة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات التوثيق لـ content
التي تم إنشاؤها النموذج في Message
.
إذا تم إنشاء Message
كإخراج من النموذج، قد تتم تعبئة هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content
. يُستخدم هذا الحقل في الناتج فقط.
تمثيل JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
يتم تمرير كل النص المنظم بالكامل إلى النموذج كطلب.
تحتوي السمة MessagePrompt
على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج رسائل النتائج التي يُدخِلها المستخدم/النموذج، والتي تُعِد النموذج للرد بطرق مختلفة، وسجلّ المحادثات أو قائمة الرسائل التي تمثّل منعطفات المحادثة بين المستخدم والنموذج.
context
string
اختياريّ. النص الذي يجب تقديمه للنموذج أولاً لإنشاء الاستجابة
إذا لم يكن الحقل فارغًا، سيتم منح context
هذا للنموذج أولاً قبل examples
وmessages
. عند استخدام "context
"، احرص على تقديم كل طلب للحفاظ على استمرارية الاستخدام.
يمكن أن يكون هذا الحقل وصفًا لطلبك المقدَّم إلى النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجمة العبارة من الإنجليزية إلى الفرنسية". أو "بعد نطق عبارة، صنّف العاطفة على أنها سعيدة أو حزينة أو محايدة".
سيكون لأي عنصر يتم تضمينه في هذا الحقل الأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج وتم اقتطاع طلب الإدخال.
examples[]
object (Example
)
اختياريّ. أمثلة على ما يجب أن يُنشئه النموذج
ويشمل ذلك كلاً من البيانات التي أدخلها المستخدم والاستجابة التي يجب أن يحاكيها النموذج.
يتم التعامل مع examples
بشكل مماثل لرسائل المحادثة باستثناء أنّها لها الأولوية على السجلّ في messages
: إذا تجاوز إجمالي حجم الإدخال للنموذج inputTokenLimit
، سيتم اقتطاع البيانات. سيتم إسقاط العناصر من messages
قبل examples
.
messages[]
object (Message
)
مطلوب. لقطة من سجلّ المحادثات الأخيرة مرتّبة حسب التسلسل الزمني.
التبديل بين مؤلفَين
إذا تجاوز إجمالي حجم الإدخال قيمة inputTokenLimit
الخاصة بالنموذج، سيتم اقتطاع البيانات المُدخَلة: سيتم تجاهل العناصر الأقدم من messages
.
مثال
GenerateTextResponse
تمثّل هذه السمة الاستجابة من النموذج، بما في ذلك عمليات إكمال المرشحين.
candidates[]
object (TextCompletion
)
ردود المرشحين من النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability
الذي أدى إلى ظهور حظر، وإعداد الضرر لهذه الفئة. يشير ذلك إلى أقل تغيير في SafetySettings
ويكون ضروريًا لإزالة حظر رد واحد على الأقل.
يتم ضبط عملية الحظر من خلال سياسة SafetySettings
في الطلب (أو سياسة SafetySettings
التلقائية في واجهة برمجة التطبيقات).
safetyFeedback[]
object (SafetyFeedback
)
عرض أي ملاحظات حول الأمان ذات صلة بتصفية المحتوى.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
نص الناتج الذي يتم عرضه من نموذج.
output
string
النتائج فقط. النص الذي تم إنشاؤه الذي يتم عرضه من النموذج.
safetyRatings[]
object (SafetyRating
)
تقييمات بشأن أمان ردّ
يتوفّر تقييم واحد كحدّ أقصى لكل فئة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات التوثيق لـ output
التي تم إنشاؤها النموذج في TextCompletion
.
يمكن تعبئة هذا الحقل بمعلومات الإحالة لأي نص مضمّن في output
.
تمثيل JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
إرسال ملاحظات حول الأمان لطلب كامل
تتم تعبئة هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات الأمان. قد لا تتوفّر SafetyFeedback في جميع HarmCategory. ستعرض كل SafetyFeedback إعدادات السلامة التي يستخدمها الطلب، بالإضافة إلى أقل احتمالية ضرر يجب السماح بها من أجل عرض النتيجة.
rating
object (SafetyRating
)
تم تقييم الأمان من المحتوى.
setting
object (SafetySetting
)
تم تطبيق إعدادات الأمان على الطلب.
تمثيل JSON |
---|
{ "rating": { object ( |