PaLM (decommissioned)

الطريقة: model.generateText

تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

مَعلمات المسار

model string

مطلوب. اسم Model أو TunedModel المُستخدَم لإنشاء عملية الإنجاز. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.

استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.

safetySettings[] object (SafetySetting)

اختياريّ. قائمة بمثيلات SafetySetting الفريدة لحظر المحتوى غير الآمن

التي سيتم فرضها على GenerateTextRequest.prompt وGenerateTextResponse.candidates. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory محدّد في safetySettings. في حال عدم توفّر SafetySetting لعنصر SafetyCategory معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.

stopSequences[] string

تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.

temperature number

اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature لـ Model التي تم إرجاعها إلى الدالة getModel.

يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.

candidateCount integer

اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.

يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.

maxOutputTokens integer

اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح

في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على outputTokenLimit المحدّد في مواصفات Model.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.

يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p لدالة Model التي تم عرضها في دالة getModel.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k لدالة Model التي تم عرضها في دالة getModel.

نص الاستجابة

إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse.

الطريقة: model.countTextTokens

تُشغِّل هذه الدالة أداة تقسيم النصوص في النموذج على نص معيّن وتُعرِض عدد الوحدات.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.

يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list.

التنسيق: models/{model} يكون على الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.

نص الاستجابة

رد من models.countTextTokens.

وهي تعرض tokenCount للنموذج لـ prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميّزة التي تستخدمها model لتحويل prompt إلى رموز مميّزة.

تكون دائمًا غير سالبة.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: models.generateMessage

تُنشئ هذه الوظيفة ردًا من النموذج استنادًا إلى إدخال MessagePrompt.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

مَعلمات المسار

model string

مطلوب. اسم النموذج المطلوب استخدامه.

التنسيق: name=models/{model} يكون على الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. الإدخال النصي المُنظَّم الذي يتم تقديمه للنموذج كطلب

عند وجود مطالبة، سيعرض النموذج الرسالة التالية في المناقشة ويتوقعه.

temperature number

اختياريّ. تتحكّم هذه السمة في العشوائية في الإخراج.

يمكن أن تتجاوز القيم [0.0,1.0]، بشكل شامل. أمّا القيمة الأقرب من 1.0، فستؤدي إلى ردود أكثر تنوعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى استجابات أقل إثارة للدهشة من النموذج.

candidateCount integer

اختياريّ. عدد رسائل الردّ التي تم إنشاؤها المطلوب عرضها.

يجب أن تكون هذه القيمة بين [1, 8] بشكل شامل. وفي حال عدم ضبطها، سيتم ضبطها تلقائيًا على 1.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

ويراعي أخذ العينات من النواة أصغر مجموعة من الرموز المميّزة التي يكون مجموع احتمالية حدوثها topP على الأقل.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا.

نص الاستجابة

الاستجابة من النموذج

ويشمل ذلك الرسائل المُحتمَلة وسجلّ المحادثات في شكل رسائل مرتبة زمنيًا.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
candidates[] object (Message)

رسائل الردّ المُقترَحة من النموذج

messages[] object (Message)

سجلّ المحادثات الذي يستخدمه النموذج.

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability التي أدت إلى حظر، وإعداد الضرر لهذه الفئة.

تمثيل JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

الطريقة: models.countMessageTokens

يشغّل أداة إنشاء الرموز المميّزة للنموذج على سلسلة وتعرض عدد الرموز المميّزة.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.

يجب أن يتطابق هذا الاسم مع اسم طراز يعرضه الإجراء models.list.

التنسيق: models/{model} يكون على الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. المطالبة التي سيتم عرض عدد رموزها المميزة.

نص الاستجابة

ردّ من "models.countMessageTokens"

ويعرض tokenCount للنموذج prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميّزة التي تستخدمها model لتحويل prompt إلى رموز مميّزة.

تكون دائمًا غير سالبة.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: model.embedText

تُنشئ هذه الدالة تمثيلاً مضمّنًا من النموذج استنادًا إلى رسالة الإدخال.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

مَعلمات المسار

model string

مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}. ويكون على النحو models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
text string

اختياريّ. النص ذو التصميم المرن الذي سيتحوله النموذج إلى تضمين.

نص الاستجابة

الاستجابة لـ EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embedding object (Embedding)

النتائج فقط. التضمين الذي تم إنشاؤه من النص الذي تم إدخاله

تمثيل JSON
{
  "embedding": {
    object (Embedding)
  }
}

الطريقة: models.batchEmbedText

تنشئ هذه الدالة تضمينات متعددة من النموذج الذي يحتوي على نص إدخال في مكالمة متزامنة.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

مَعلمات المسار

model string

مطلوب. اسم Model المراد استخدامه لإنشاء المحتوى المضمّن. على سبيل المثال: models/embedding-gecko-001، ويتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
texts[] string

اختياريّ. نصوص الإدخال التي لا تتّبع تنسيقًا معيّنًا والتي سيحوّلها النموذج إلى تمثيل مضمّن. الحدّ الأقصى الحالي هو 100 نص، وسيتم عرض خطأ عند تجاوز هذا العدد.

requests[] object (EmbedTextRequest)

اختياريّ. تضمين طلبات للدفعة يمكن ضبط سمة واحدة فقط من texts أو requests.

نص الاستجابة

الاستجابة لـ EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embeddings[] object (Embedding)

النتائج فقط. التضمينات التي تم إنشاؤها من النص الذي تم إدخاله

تمثيل JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

طلب الحصول على تضمين نص من النموذج.

الحقول
model string

مطلوب. اسم الطراز المراد استخدامه مع التنسيق model=models/{model}.

text string

اختياريّ. النص ذو التصميم المرن الذي سيتحوله النموذج إلى تضمين.

تمثيل JSON
{
  "model": string,
  "text": string
}

الطريقة: recognizedModels.generateText

تُنشئ هذه الدالة ردًا من النموذج استنادًا إلى رسالة الإدخال.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

مَعلمات المسار

model string

مطلوب. اسم Model أو TunedModel المطلوب استخدامه لإنشاء الإكمال. أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m يكون بالشكل tunedModels/{tunedmodel}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.

استنادًا إلى طلب، سيُنشئ النموذج ردًا من خلال ميزة "إكمال النص" يتوقعه على أنّه إكمال النص الذي تم إدخاله.

safetySettings[] object (SafetySetting)

اختياريّ. قائمة بمثيلات SafetySetting الفريدة لحظر المحتوى غير الآمن

التي سيتم فرضها على GenerateTextRequest.prompt وGenerateTextResponse.candidates. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory. ستحظر واجهة برمجة التطبيقات أي طلبات أو ردود لا تستوفي الحدود الدنيا التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory محدّد في safetySettings. في حال عدم توفّر SafetySetting لعنصر SafetyCategory معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.

stopSequences[] string

تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. في حال تحديده، ستتوقف واجهة برمجة التطبيقات عند أول ظهور لتسلسل الإيقاف. لن يتم تضمين تسلسل الإيقاف كجزء من الاستجابة.

temperature number

اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature لـ Model التي تم إرجاعها إلى الدالة getModel.

يمكن أن تتراوح القيم بين [0.0,1.0] بشكل شامل. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.

candidateCount integer

اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.

يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على 1.

maxOutputTokens integer

اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في نموذج مرشح

في حال عدم ضبط هذا الخيار، سيتم ضبطه تلقائيًا على outputTokenLimit المحدّد في مواصفات Model.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.

يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي نأخذ في الاعتبار الرموز الأكثر احتمالاً فقط. يحدّ أسلوب أخذ عيّنات من أهمّ k عنصرًا مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين يحدّ أسلوب أخذ عيّنات من نواة النصّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_p لدالة Model التي تم عرضها في دالة getModel.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أسلوبَي "أهم k" و"تحليل النوى" معًا.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، اطّلِع على السمة Model.top_k لدالة Model التي تم عرضها في دالة getModel.

نص الاستجابة

إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse.

ContentFilter

البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد

يحتوي ContentFilter على سبب وسلسلة داعمة اختيارية. قد يكون السبب غير محدّد.

الحقول
reason enum (BlockedReason)

سبب حظر المحتوى أثناء معالجة الطلب

message string

سلسلة تصف سلوك الفلترة بمزيد من التفصيل

تمثيل JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

قائمة بأسباب حظر المحتوى

عمليات التعداد
BLOCKED_REASON_UNSPECIFIED لم يتم تحديد سبب الحظر.
SAFETY تم حظر المحتوى من خلال إعدادات الأمان.
OTHER تم حظر المحتوى، ولكن السبب غير مصنّف.

التضمين

قائمة بالقيم العائمة التي تمثل التضمين.

الحقول
value[] number

قيم التضمين

تمثيل JSON
{
  "value": [
    number
  ]
}

الرسالة

تمثّل هذه السمة الوحدة الأساسية للنص المنظم.

يتضمّن Message author وcontent Message.

يتم استخدام author لوضع علامة على الرسائل عند إضافتها إلى النموذج على أنّها نص.

الحقول
author string

اختياريّ. مؤلف هذه الرسالة.

وهي بمثابة مفتاح لوضع علامة على محتوى هذه الرسالة عند إضافتها إلى النموذج كنص.

يمكن أن يكون المؤلف أي سلسلة أبجدية رقمية.

content string

مطلوب. المحتوى النصي لسمة Message المنظَّمة.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات الاستشهاد لـ content التي أنشأها النموذج في هذا Message

إذا تم إنشاء Message كإخراج من النموذج، قد تتم تعبئة هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content. يُستخدم هذا الحقل في الناتج فقط.

تمثيل JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

جميع نص الإدخال المنظَّم الذي تم تمريره إلى النموذج كطلب

يحتوي MessagePrompt على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج رسائل النتائج التي يُدخِلها المستخدم/النموذج، والتي تُعِد النموذج للرد بطرق مختلفة، وسجلّ المحادثات أو قائمة الرسائل التي تمثّل منعطفات المحادثة بين المستخدم والنموذج.

الحقول
context string

اختياريّ. النص الذي يجب تقديمه إلى النموذج أولاً لتحديد سياق الردّ

إذا لم يكن الحقل فارغًا، سيتم منح context هذا للنموذج أولاً قبل examples وmessages. عند استخدام "context"، احرص على تقديم كل طلب للحفاظ على استمرارية الاستخدام.

يمكن أن يكون هذا الحقل وصفًا لطلبك الموجَّه إلى النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجمة العبارة من الإنجليزية إلى الفرنسية". أو "بعد نطق عبارة، صنّف العاطفة على أنها سعيدة أو حزينة أو محايدة".

سيُمنَح أيّ محتوى مضمّن في هذا الحقل الأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج وتم اقتطاع طلب الإدخال.

examples[] object (Example)

اختياريّ. أمثلة على ما يجب أن يُنشئه النموذج

ويشمل ذلك كلاً من بيانات المستخدم والاستجابة التي يجب أن يحاكيها النموذج.

تتم معالجة هذه examples بالطريقة نفسها التي تتم بها معالجة رسائل المحادثات، باستثناء أنّها تحظى بالأولوية على السجلّ في messages: إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج، سيتم اقتطاع الإدخال. سيتم إسقاط العناصر من messages قبل examples.

messages[] object (Message)

مطلوب. لقطة شاشة لسجلّ المحادثات الأخيرة مرتبة حسب الترتيب الزمني

تتناوب الأدوار بين مؤلفَين.

إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج، سيتم اقتطاع الإدخال: سيتم حذف العناصر الأقدم من messages.

تمثيل JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

مثال

مثال على الإدخال/الإخراج المستخدَم لتوجيه النموذج

ويوضّح ذلك كيفية ردّ النموذج أو تنسيقه.

الحقول
input object (Message)

مطلوب. مثال على إدخال Message من المستخدم.

output object (Message)

مطلوب. مثال على ما يجب أن يعرضه النموذج استنادًا إلى الإدخال

تمثيل JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

تمثّل هذه السمة الاستجابة من النموذج، بما في ذلك عمليات إكمال المرشحين.

الحقول
candidates[] object (TextCompletion)

ردود المرشحين من النموذج

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory التي منعت عنصرًا محفّزًا لعرض الإعلان من هذه الاستجابة، وأدنى HarmProbability أدّى إلى الحظر، وإعداد HarmThreshold لهذه الفئة. يشير ذلك إلى أصغر تغيير في SafetySettings سيكون ضروريًا لإزالة حظر استجابة واحدة على الأقل.

يتم ضبط عملية الحظر من خلال SafetySettings في الطلب (أو SafetySettings التلقائي لواجهة برمجة التطبيقات).

safetyFeedback[] object (SafetyFeedback)

تعرِض هذه السمة أي ملاحظات حول الأمان ذات الصلة بفلترة المحتوى.

تمثيل JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

نص الإخراج الذي تم إرجاعه من نموذج

الحقول
output string

النتائج فقط. النص الذي تم إنشاؤه الذي يتم عرضه من النموذج.

safetyRatings[] object (SafetyRating)

تقييمات بشأن أمان ردّ

يتوفّر تقييم واحد كحدّ أقصى لكل فئة.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات التوثيق لـ output الذي تم إنشاؤه من خلال النموذج في TextCompletion

قد يتمّ ملء هذا الحقل بمعلومات تحديد المصدر لأيّ نصّ مضمّن في output.

تمثيل JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

إرسال ملاحظات حول الأمان لطلب كامل

يتم تعبئة هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات السلامة. قد لا يتوفّر الحقل SafetyFeedback لكل فئة من فئات المحتوى الضار. ستعرض كل SafetyFeedback إعدادات السلامة التي يستخدمها الطلب، بالإضافة إلى أقل احتمالية ضرر يجب السماح بها من أجل عرض النتيجة.

الحقول
rating object (SafetyRating)

يتم تقييم تقييم السلامة استنادًا إلى المحتوى.

setting object (SafetySetting)

إعدادات الأمان المطبَّقة على الطلب

تمثيل JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

النص الذي يتم تقديمه للنموذج كطلب

سيستخدم النموذج طلب النص هذا لإنشاء إكمال للنص.

الحقول
text string

مطلوب. نص الطلب

تمثيل JSON
{
  "text": string
}