PaLM (deprecated)

الطريقة: model.generateText

إنشاء رد من النموذج لرسالة إدخال.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

مَعلمات المسار

model string

مطلوب. اسم Model أو TunedModel المطلوب استخدامه لإنشاء الإكمال. أمثلة: model/text-bison-001 approvedModels/sentence-translator-u3b7m تتخذ النموذج models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.

عند الطلب، سيقوم النموذج بإنشاء رد TextComplete الذي يتنبأ به كاكتمال للنص المُدخل.

safetySettings[] object (SafetySetting)

اختياريّ. قائمة بمثيلات SafetySetting الفريدة لحظر المحتوى غير الآمن.

سيتم فرضها على GenerateTextRequest.prompt وGenerateTextResponse.candidates. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي وضعتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting لعنصر SafetyCategory معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.

stopSequences[] string

تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. وفي حال تحديده، ستتوقّف واجهة برمجة التطبيقات عند أول ظهور لتسلسل محطات التوقف. ولن يتمّ تضمين تسلسل المحطة كجزء من الردّ.

temperature number

اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature لـ Model التي تم إرجاعها إلى الدالة getModel.

ويمكن أن تتراوح القيم من [0.0،1.0]، ضمنًا. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.

candidateCount integer

اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.

يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.

maxOutputTokens integer

اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في عنصر مرشح.

في حال ترك هذه السياسة بدون ضبط، سيتم ضبط السياسة علىOutputTokenLimit المحدّدة في مواصفات Model.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي يتم أخذ الرموز الأكثر احتمالاً فقط في الاعتبار. ويحدّ أخذ العينات من المستوى الأعلى (K) مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين أنّ أخذ العينات من النواة يحدّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_p لـ Model التي تم إرجاعها إلى الدالة getModel.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_k لـ Model التي تم إرجاعها إلى الدالة getModel.

نص الاستجابة

إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse.

الطريقة: model.countTextTokens

لتشغيل أداة إنشاء رموز مميّزة للنموذج على نص وعرض عدد الرموز المميّزة

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.

ويجب أن يتطابق هذا الاسم مع اسم النموذج الذي تعرضه الطريقة models.list.

التنسيق: models/{model} يأخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي الصيغة الحرة الذي يتم تحديده للنموذج كطلب.

نص الاستجابة

رد من models.countTextTokens.

وهي تعرض tokenCount للنموذج لـ prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميّزة التي تستخدمها model لتحويل prompt إلى رموز مميّزة.

تكون غير سلبية دائمًا.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: model.generateMessage

تنشئ هذه الدالة استجابة من النموذج استنادًا إلى إدخال MessagePrompt.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

مَعلمات المسار

model string

مطلوب. اسم النموذج المطلوب استخدامه.

التنسيق: name=models/{model} ويكون على النحو models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. تمثّل هذه السمة الإدخال النصي المنظم الذي يتم تقديمه إلى النموذج كطلب.

عند وجود مطالبة، سيعرض النموذج الرسالة التالية في المناقشة ويتوقعه.

temperature number

اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج.

يمكن أن تتجاوز القيم [0.0,1.0]، بشكل شامل. أمّا القيمة الأقرب من 1.0، فستؤدي إلى ردود أكثر تنوعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى استجابات أقل إثارة للدهشة من النموذج.

candidateCount integer

اختياريّ. عدد رسائل الرد التي تم إنشاؤها والتي سيتم عرضها

يجب أن تكون هذه القيمة بين [1, 8] بشكل شامل. وفي حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج عيّنات مجمَّعة من عينات أعلى كي ونواة.

ويراعي أخذ العينات من النواة أصغر مجموعة من الرموز المميّزة التي يكون مجموع احتمالية حدوثها topP على الأقل.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا.

نص الاستجابة

يشير ذلك المصطلح إلى الاستجابة الواردة من النموذج.

ويشمل ذلك رسائل المرشّحين وسجلّ المحادثات في شكل رسائل مرتَّبة ترتيبًا زمنيًا.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
candidates[] object (Message)

رسائل ردّ المرشّح من النموذج.

messages[] object (Message)

سجلّ المحادثات الذي يستخدمه النموذج.

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability الذي أدى إلى ظهور حظر، وإعداد الضرر لهذه الفئة.

تمثيل JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

الطريقة: model.countMessageTokens

لتشغيل أداة إنشاء رمز مميّز لنموذج على سلسلة وعرض عدد الرموز المميّزة

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويعمل هذا كرقم تعريف لكي يستخدمه النموذج.

ويجب أن يتطابق هذا الاسم مع اسم النموذج الذي تعرضه الطريقة models.list.

التنسيق: models/{model} يأخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. المطالبة، التي سيتم عرض عدد رموزها المميزة.

نص الاستجابة

رد من models.countMessageTokens.

وهي تعرض tokenCount للنموذج لـ prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميّزة التي تستخدمها model لتحويل prompt إلى رموز مميّزة.

تكون غير سلبية دائمًا.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: model.embedText

تنشئ هذه الدالة تضمينًا من النموذج المعطى لرسالة إدخال.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

مَعلمات المسار

model string

مطلوب. اسم النموذج المطلوب استخدامه مع التنسيق model=models/{model}. ويكون على النحو models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
text string

اختياريّ. النص ذو التصميم المرن الذي سيتحول إليه النموذج إلى تضمين.

نص الاستجابة

الاستجابة لـ EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embedding object (Embedding)

النتائج فقط. التضمين الذي تم إنشاؤه من النص الذي تم إدخاله

تمثيل JSON
{
  "embedding": {
    object (Embedding)
  }
}

الطريقة: model.batchEmbedText

تنشئ هذه الدالة تضمينات متعددة من النموذج الذي يتم إدخاله ضمن نص في مكالمة متزامنة.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

مَعلمات المسار

model string

مطلوب. اسم Model المراد استخدامه لإنشاء التضمين. أمثلة: model/embedding-gecko-001 واتخاذ النموذج models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
texts[] string

اختياريّ. نصوص الإدخال ذات التصميم المرن التي سيتحولها النموذج إلى تضمين. يبلغ الحد الأقصى الحالي 100 رسالة نصية، وسيتم عرض خطأ.

requests[] object (EmbedTextRequest)

اختياريّ. طلبات التضمين للمجموعة يمكن ضبط سمة واحدة فقط من texts أو requests.

نص الاستجابة

الاستجابة لـ EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embeddings[] object (Embedding)

النتائج فقط. التضمينات التي تم إنشاؤها من النص الذي تم إدخاله

تمثيل JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

طلب الحصول على تضمين نص من النموذج.

تمثيل JSON
{
  "model": string,
  "text": string
}
الحقول
model string

مطلوب. اسم النموذج المراد استخدامه مع التنسيق model=models/{model}.

text string

اختياريّ. النص ذو التصميم المرن الذي سيتحول إليه النموذج إلى تضمين.

الطريقة: recognizedModels.generateText

إنشاء رد من النموذج لرسالة إدخال.

نقطة نهاية

منشور https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

مَعلمات المسار

model string

مطلوب. اسم Model أو TunedModel المطلوب استخدامه لإنشاء الإكمال. أمثلة: model/text-bison-001 approvedModels/sentence-translator-u3b7m تتخذ النموذج tunedModels/{tunedmodel}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. يشير ذلك المصطلح إلى نص الإدخال ذي التصميم المرن الذي يتم منحه للنموذج كطلب.

عند الطلب، سيقوم النموذج بإنشاء رد TextComplete الذي يتنبأ به كاكتمال للنص المُدخل.

safetySettings[] object (SafetySetting)

اختياريّ. قائمة بمثيلات SafetySetting الفريدة لحظر المحتوى غير الآمن.

سيتم فرضها على GenerateTextRequest.prompt وGenerateTextResponse.candidates. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي وضعتها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory محدّدة في "إعدادات الأمان". في حال عدم توفّر SafetySetting لعنصر SafetyCategory معيّن في القائمة، ستستخدم واجهة برمجة التطبيقات إعداد الأمان التلقائي لهذه الفئة. فئات الضرر HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXIcity وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDical وHARM_CATEGORY_DANGEROUS متاحة في الخدمة النصية.

stopSequences[] string

تمثّل هذه السمة مجموعة تسلسلات الأحرف (ما يصل إلى 5) التي توقِف إنشاء النتائج. وفي حال تحديده، ستتوقّف واجهة برمجة التطبيقات عند أول ظهور لتسلسل محطات التوقف. ولن يتمّ تضمين تسلسل المحطة كجزء من الردّ.

temperature number

اختياريّ. تتحكّم هذه السياسة في التوزيع العشوائي للمخرج. ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.temperature لـ Model التي تم إرجاعها إلى الدالة getModel.

ويمكن أن تتراوح القيم من [0.0،1.0]، ضمنًا. وستؤدي القيمة الأقرب من 1.0 إلى الحصول على ردود أكثر تنوعًا وإبداعًا، في حين تؤدي القيمة الأقرب من 0.0 عادةً إلى الحصول على ردود أكثر وضوحًا من النموذج.

candidateCount integer

اختياريّ. عدد الردود التي تم إنشاؤها لعرضها.

يجب أن تتراوح هذه القيمة بين [1 و8] (ضمنًا). في حال ترك هذه السياسة بدون ضبط، سيتم ضبط القيمة التلقائية على 1.

maxOutputTokens integer

اختياريّ. الحد الأقصى لعدد الرموز المميّزة المطلوب تضمينها في عنصر مرشح.

في حال ترك هذه السياسة بدون ضبط، سيتم ضبط السياسة علىOutputTokenLimit المحدّدة في مواصفات Model.

topP number

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

يتم ترتيب الرموز المميّزة استنادًا إلى الاحتمالات المحدّدة لها، لكي يتم أخذ الرموز الأكثر احتمالاً فقط في الاعتبار. ويحدّ أخذ العينات من المستوى الأعلى (K) مباشرةً من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، في حين أنّ أخذ العينات من النواة يحدّ من عدد الرموز المميّزة استنادًا إلى الاحتمالية التراكمية.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_p لـ Model التي تم إرجاعها إلى الدالة getModel.

topK integer

اختياريّ. يشير ذلك المصطلح إلى الحد الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار عند جمع العيّنات.

يستخدم النموذج أخذ عينات من عينات عشوائية وخوارزمية النواة.

وفي أخذ العيّنات الأعلى درجة في الاعتبار، يتم جمع topK من الرموز المميّزة الأكثر ترجيحًا. وتكون القيمة التلقائية هي 40.

ملاحظة: تختلف القيمة التلقائية حسب النموذج، ويمكنك الاطّلاع على السمة Model.top_k لـ Model التي تم إرجاعها إلى الدالة getModel.

نص الاستجابة

إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse.

ContentFilter

البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد.

يحتوي ContentFilter على سبب وسلسلة داعمة اختيارية. قد يكون السبب غير محدّد.

تمثيل JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
الحقول
reason enum (BlockedReason)

سبب حظر المحتوى أثناء معالجة الطلب.

message string

سلسلة تصف سلوك الفلترة بمزيد من التفصيل.

BlockedReason

قائمة بأسباب حظر المحتوى

عمليات التعداد
BLOCKED_REASON_UNSPECIFIED لم يتم تحديد سبب محظور.
SAFETY تم حظر المحتوى وفقًا لإعدادات الأمان.
OTHER تم حظر المحتوى، ولكن السبب بلا فئة.

التضمين

قائمة بالقيم العائمة التي تمثل التضمين.

تمثيل JSON
{
  "value": [
    number
  ]
}
الحقول
value[] number

قيم التضمين.

الرسالة

تمثّل هذه السمة الوحدة الأساسية للنص المنظم.

وتشمل Message السمة author وcontent من Message.

يتم استخدام author لوضع علامة على الرسائل عند إضافتها إلى النموذج على أنّها نص.

تمثيل JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
الحقول
author string

اختياريّ. مؤلف هذه الرسالة.

وهي بمثابة مفتاح لوضع علامة على محتوى هذه الرسالة عند إضافتها إلى النموذج كنص.

يمكن أن يكون المؤلف أي سلسلة أبجدية رقمية.

content string

مطلوب. المحتوى النصي لسمة Message المنظَّمة.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات التوثيق لـ content الذي تم إنشاؤه من خلال النموذج في Message

إذا تم إنشاء Message كإخراج من النموذج، قد تتم تعبئة هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content. يُستخدم هذا الحقل في الناتج فقط.

MessagePrompt

يتم تمرير كل النص المنظم بالكامل إلى النموذج كطلب.

يحتوي MessagePrompt على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج رسائل النتائج التي يُدخِلها المستخدم/النموذج، والتي تُعِد النموذج للرد بطرق مختلفة، وسجلّ المحادثات أو قائمة الرسائل التي تمثّل منعطفات المحادثة بين المستخدم والنموذج.

تمثيل JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
الحقول
context string

اختياريّ. النص الذي يجب تقديمه للنموذج أولاً لإنشاء الاستجابة

إذا لم يكن الحقل فارغًا، سيتم منح context هذا للنموذج أولاً قبل examples وmessages. عند استخدام "context"، تأكّد من تقديم كل طلب للحفاظ على استمرارية الاستخدام.

يمكن أن يكون هذا الحقل وصفًا لطلبك المقدَّم إلى النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجمة العبارة من الإنجليزية إلى الفرنسية". أو "بعد عبارة معينة، صنّف العاطفة على أنها سعيدة أو حزينة أو محايدة".

سيكون لأي عنصر يتم تضمينه في هذا الحقل الأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج وتم اقتطاع طلب الإدخال.

examples[] object (Example)

اختياريّ. أمثلة على ما يجب أن يُنشئه النموذج

ويشمل ذلك كلاً من البيانات التي أدخلها المستخدم والاستجابة التي يجب أن يحاكيها النموذج.

يتم التعامل مع examples بشكل مماثل لرسائل المحادثة باستثناء أنّها لها الأولوية على السجلّ في messages: إذا تجاوز إجمالي حجم الإدخال للنموذج inputTokenLimit، سيتم اقتطاع البيانات. سيتم إسقاط العناصر من messages قبل examples.

messages[] object (Message)

مطلوب. لقطة من سجلّ المحادثات الأخيرة مرتّبة حسب التسلسل الزمني.

التبديل بين مؤلفَين

إذا تجاوز إجمالي حجم الإدخال قيمة inputTokenLimit الخاصة بالنموذج، سيتم اقتطاع البيانات المُدخَلة: سيتم تجاهل العناصر الأقدم من messages.

مثال

يشير ذلك المصطلح إلى مثال على إدخال/إخراج يُستخدَم لتوجيه النموذج.

يوضح كيف يجب أن يستجيب النموذج أو ينسق استجابته.

تمثيل JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
الحقول
input object (Message)

مطلوب. مثال على إدخال Message من المستخدم.

output object (Message)

مطلوب. يشير ذلك المصطلح إلى مثال على ما يجب أن يخرجه النموذج وفقًا للمدخل.

GenerateTextResponse

تمثّل هذه السمة الاستجابة من النموذج، بما في ذلك عمليات إكمال المرشحين.

تمثيل JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
الحقول
candidates[] object (TextCompletion)

ردود المرشحين من النموذج

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory أو العناصر التي حظرت أحد المرشّحين من هذا الردّ، وأدنى HarmProbability الذي أدى إلى ظهور حظر، وإعداد الضرر لهذه الفئة. يشير ذلك إلى أقل تغيير في SafetySettings ويكون ضروريًا لإزالة حظر رد واحد على الأقل.

يتم ضبط عملية الحظر من خلال سياسة SafetySettings في الطلب (أو سياسة SafetySettings التلقائية في واجهة برمجة التطبيقات).

safetyFeedback[] object (SafetyFeedback)

عرض أي ملاحظات حول الأمان ذات صلة بتصفية المحتوى.

TextCompletion

نص الناتج الذي يتم عرضه من نموذج.

تمثيل JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
الحقول
output string

النتائج فقط. النص الذي تم إنشاؤه الذي يتم عرضه من النموذج.

safetyRatings[] object (SafetyRating)

تقييمات بشأن أمان ردّ

يتوفّر تقييم واحد كحدّ أقصى لكل فئة.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات التوثيق لـ output الذي تم إنشاؤه من خلال النموذج في TextCompletion

يمكن تعبئة هذا الحقل بمعلومات الإحالة لأي نص مضمّن في output.

SafetyFeedback

إرسال ملاحظات حول الأمان لطلب كامل

تتم تعبئة هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات الأمان. قد لا تتوفّر SafetyFeedback في كل HarmCategory. ستعرض كل SafetyFeedback إعدادات السلامة التي يستخدمها الطلب، بالإضافة إلى أقل احتمالية ضرر يجب السماح بها من أجل عرض النتيجة.

تمثيل JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
الحقول
rating object (SafetyRating)

تم تقييم الأمان من المحتوى.

setting object (SafetySetting)

تم تطبيق إعدادات الأمان على الطلب.

TextPrompt

النص الذي يتم تقديمه للنموذج كطلب

سيستخدم النموذج طلب النص هذا لإنشاء إكمال للنص.

تمثيل JSON
{
  "text": string
}
الحقول
text string

مطلوب. نص المطالبة.