PaLM (decommissioned)

الطريقة: models.generateText

تنشئ هذه الطريقة ردًا من النموذج بناءً على رسالة إدخال.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

مَعلمات المسار

model string

مطلوب. اسم Model أو TunedModel المطلوب استخدامه لإنشاء الإكمال أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m ويكون بالتنسيق models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. تمثّل هذه السمة النص الحر الذي يتم إدخاله في النموذج كطلب.

عند تقديم طلب، سينشئ النموذج ردًا من النوع TextCompletion يتوقّع أن يكون استكمالاً للنص المُدخَل.

safetySettings[] object (SafetySetting)

اختيارية: قائمة بحالات SafetySetting الفريدة لحظر المحتوى غير الآمن

التي سيتم فرضها على GenerateTextRequest.prompt وGenerateTextResponse.candidates. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory محدّد في safetySettings. إذا لم يكن هناك SafetySetting لفئة SafetyCategory معيّنة مقدَّمة في القائمة، ستستخدم واجهة برمجة التطبيقات إعدادات الأمان التلقائية لهذه الفئة. تتوفّر فئات المحتوى الضار HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXICITY وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDICAL وHARM_CATEGORY_DANGEROUS في خدمة النصوص.

stopSequences[] string

مجموعة تسلسلات الأحرف (حتى 5) التي ستؤدي إلى إيقاف إنشاء الناتج. في حال تحديدها، ستتوقف واجهة برمجة التطبيقات عند ظهور تسلسل الإيقاف الأول. لن يتم تضمين تسلسل الإيقاف كجزء من الرد.

temperature number

اختيارية: تتحكّم هذه السمة في عشوائية الناتج. ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.temperature الخاصة بالعنصر Model الذي تم عرضه بواسطة الدالة getModel.

يمكن أن تتراوح القيم من [0.0,1.0]، بما في ذلك هذين الرقمَين. ستؤدي القيمة الأقرب إلى 1.0 إلى إنشاء ردود أكثر تنوعًا وإبداعًا، بينما ستؤدي القيمة الأقرب إلى 0.0 عادةً إلى إنشاء ردود أكثر مباشرةً من النموذج.

candidateCount integer

اختيارية: عدد الردود التي تم إنشاؤها والمطلوب عرضها.

يجب أن تتراوح هذه القيمة بين [1, 8]، بما في ذلك هذين الرقمَين. إذا لم يتم ضبط هذا الحقل، سيتم ضبطه تلقائيًا على 1.

maxOutputTokens integer

اختيارية: الحد الأقصى لعدد الرموز المميّزة التي يمكن تضمينها في كلمة مرشّحة

إذا لم يتم ضبطها، سيتم تلقائيًا استخدام outputTokenLimit المحدّد في مواصفات Model.

topP number

اختيارية: الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العيّنات.

يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.

يتم ترتيب الرموز المميزة استنادًا إلى الاحتمالات المحدّدة لها، وبالتالي لا يتم أخذ سوى الرموز المميزة الأكثر ترجيحًا في الاعتبار. يحدّ أخذ العيّنات من أعلى k من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، بينما يحدّ أخذ العيّنات من النواة من عدد الرموز المميّزة استنادًا إلى الاحتمال التراكمي.

ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.top_p الخاصة بالعنصر Model الذي تم عرضه بواسطة الدالة getModel.

topK integer

اختيارية: الحد الأقصى لعدد الرموز المميزة التي يجب أخذها في الاعتبار عند أخذ العيّنات

يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.

تأخذ عملية أخذ العيّنات من أعلى k مجموعة الرموز المميزة topK الأكثر احتمالاً في الاعتبار. القيمة التلقائية هي 40.

ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.top_k الخاصة بالعنصر Model الذي تم عرضه بواسطة الدالة getModel.

نص الاستجابة

إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse.

الطريقة: models.countTextTokens

تعمل هذه الدالة على تشغيل أداة الترميز الخاصة بأحد النماذج على نص معيّن وتعرض عدد الرموز المميزة.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويُستخدَم هذا المعرّف في النموذج.

يجب أن يتطابق هذا الاسم مع اسم نموذج تعرضه الطريقة models.list.

التنسيق: models/{model} يتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (TextPrompt)

مطلوب. تمثّل هذه السمة النص الحر الذي يتم إدخاله في النموذج كطلب.

نص الاستجابة

ردّ من models.countTextTokens

تعرض هذه السمة tokenCount الخاص بالنموذج prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميزة التي يقسّم إليها model السلسلة prompt.

يجب أن تكون القيمة غير سالبة.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: models.generateMessage

ينشئ ردًا من النموذج بناءً على الإدخال MessagePrompt.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

مَعلمات المسار

model string

مطلوب. اسم النموذج المطلوب استخدامه.

التنسيق: name=models/{model} تتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. المدخلات النصية المنظَّمة المقدَّمة إلى النموذج كطلب

عند تقديم طلب، سيعرض النموذج ما يتوقّع أن يكون الرسالة التالية في المناقشة.

temperature number

اختيارية: تتحكّم هذه السمة في عشوائية الناتج.

يمكن أن تتراوح القيم على [0.0,1.0]، بما في ذلك. ستؤدي القيمة الأقرب إلى 1.0 إلى إنشاء ردود أكثر تنوّعًا، بينما ستؤدي القيمة الأقرب إلى 0.0 عادةً إلى إنشاء ردود أقل إثارة للدهشة من النموذج.

candidateCount integer

اختيارية: عدد رسائل الردود التي تم إنشاؤها والمطلوب عرضها.

يجب أن تتراوح هذه القيمة بين [1, 8]، ضِمنًا. إذا لم يتم ضبط هذه السياسة، سيتم ضبطها تلقائيًا على 1.

topP number

اختيارية: الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العيّنات.

يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.

تأخذ عملية أخذ العيّنات من النواة في الاعتبار أصغر مجموعة من الرموز المميزة التي يكون مجموع احتمالاتها topP على الأقل.

topK integer

اختيارية: الحد الأقصى لعدد الرموز المميزة التي يجب أخذها في الاعتبار عند أخذ العيّنات

يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.

تأخذ عملية أخذ العيّنات من أعلى k مجموعة الرموز المميزة topK الأكثر احتمالاً في الاعتبار.

نص الاستجابة

الردّ من النموذج

ويشمل ذلك رسائل المرشحين وسجلّ المحادثات في شكل رسائل مرتّبة زمنيًا.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
candidates[] object (Message)

رسائل الردود المحتملة من النموذج

messages[] object (Message)

سجلّ المحادثات الذي يستخدمه النموذج

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory التي حظرت مرشحًا من هذه الاستجابة، وأقل HarmProbability أدى إلى الحظر، وإعداد HarmThreshold لهذه الفئة.

تمثيل JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

الطريقة: models.countMessageTokens

تعمل هذه الدالة على تشغيل أداة تقسيم الرموز المميزة الخاصة بأحد النماذج على سلسلة وتعرض عدد الرموز المميزة.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

مَعلمات المسار

model string

مطلوب. اسم مورد النموذج. ويُستخدَم هذا المعرّف في النموذج.

يجب أن يتطابق هذا الاسم مع اسم نموذج تعرضه الطريقة models.list.

التنسيق: models/{model} يتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
prompt object (MessagePrompt)

مطلوب. الطلب الذي سيتم عرض عدد الرموز المميزة فيه.

نص الاستجابة

ردّ من models.countMessageTokens

تعرض هذه السمة tokenCount الخاص بالنموذج prompt.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
tokenCount integer

عدد الرموز المميزة التي يقسّم إليها model السلسلة prompt.

يجب أن تكون القيمة غير سالبة.

تمثيل JSON
{
  "tokenCount": integer
}

الطريقة: models.embedText

تنشئ هذه الدالة تضمينًا من النموذج بالاستناد إلى رسالة إدخال.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

مَعلمات المسار

model string

مطلوب. اسم النموذج الذي سيتم استخدامه مع النموذج model=models/{model} تتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
text string

اختيارية: نص الإدخال الحر الذي سيحوّله النموذج إلى تضمين.

نص الاستجابة

تمثّل هذه الفئة الردّ على EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embedding object (Embedding)

النتائج فقط. تمثّل هذه السمة التضمين الذي تم إنشاؤه من النص المُدخَل.

تمثيل JSON
{
  "embedding": {
    object (Embedding)
  }
}

الطريقة: models.batchEmbedText

تنشئ هذه الطريقة عدة تضمينات من النموذج بالاستناد إلى النص المُدخَل في طلب متزامن.

نقطة نهاية

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

مَعلمات المسار

model string

مطلوب. اسم Model الذي سيتم استخدامه لإنشاء التضمين. أمثلة: models/embedding-gecko-001 تتّخذ الشكل models/{model}.

نص الطلب

يحتوي نص الطلب على بيانات بالبنية التالية:

الحقول
texts[] string

اختيارية: نصوص الإدخال الحرة التي سيحوّلها النموذج إلى تضمين الحدّ الأقصى الحالي هو 100 نص، وفي حال تجاوزه سيظهر خطأ.

requests[] object (EmbedTextRequest)

اختيارية: تضمين الطلبات في الدفعة لا يمكن ضبط سوى قيمة واحدة من texts أو requests.

نص الاستجابة

تمثّل هذه الفئة الردّ على EmbedTextRequest.

إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:

الحقول
embeddings[] object (Embedding)

النتائج فقط. التمثيلات المتّجهة التي تم إنشاؤها من النص المُدخَل

تمثيل JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

طلب الحصول على تضمين نصي من النموذج

الحقول
model string

مطلوب. اسم النموذج الذي سيتم استخدامه مع النموذج model=models/{model}

text string

اختيارية: نص الإدخال الحر الذي سيحوّله النموذج إلى تضمين.

تمثيل JSON
{
  "model": string,
  "text": string
}

ContentFilter

البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد

يحتوي ContentFilter على سبب وسلسلة اختيارية داعمة. قد لا يكون السبب محدّدًا.

الحقول
reason enum (BlockedReason)

سبب حظر المحتوى أثناء معالجة الطلب

message string

سلسلة تصف سلوك الفلترة بمزيد من التفاصيل.

تمثيل JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

قائمة بالأسباب التي قد تؤدي إلى حظر المحتوى

عمليات التعداد
BLOCKED_REASON_UNSPECIFIED لم يتم تحديد سبب الحظر.
SAFETY تم حظر المحتوى بسبب إعدادات الأمان.
OTHER تم حظر المحتوى، ولكن السبب غير مصنّف.

التضمين

قائمة بالأرقام العشرية التي تمثّل التضمين

الحقول
value[] number

قيم التضمين.

تمثيل JSON
{
  "value": [
    number
  ]
}

الرسالة

الوحدة الأساسية للنص المنظَّم

يتضمّن Message author وcontent الخاص بـ Message.

يتم استخدام author لوضع علامات على الرسائل عند إدخالها إلى النموذج كنص.

الحقول
author string

اختيارية: تمثّل هذه السمة مؤلف الرسالة.

يُستخدَم هذا المعرّف كمفتاح لوضع علامات على محتوى هذه الرسالة عند إدخالها إلى النموذج كنص.

يمكن أن يكون المؤلف أي سلسلة أبجدية رقمية.

content string

مطلوب. تمثّل هذه السمة المحتوى النصي للبيانات المنظَّمة Message.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات الاقتباس الخاصة بـ content من إنشاء النموذج في هذا Message

إذا تم إنشاء Message كنتيجة من النموذج، قد يتم ملء هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content. يُستخدَم هذا الحقل في الإخراج فقط.

تمثيل JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

جميع نصوص الإدخال المنظَّمة التي تم تمريرها إلى النموذج كطلب

يحتوي MessagePrompt على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج الرسائل التي تتضمّن مدخلات المستخدم ومخرجات النموذج والتي تحفّز النموذج على الرد بطرق مختلفة، وسجلّ المحادثة أو قائمة الرسائل التي تمثّل الأدوار المتناوبة للمحادثة بين المستخدم والنموذج.

الحقول
context string

اختيارية: النص الذي يجب تقديمه إلى النموذج أولاً لتحديد سياق الردّ.

إذا لم يكن هذا الحقل فارغًا، سيتم منح context للنموذج أولاً قبل examples وmessages. عند استخدام context، احرص على تضمينه في كل طلب للحفاظ على الاستمرارية.

يمكن أن يكون هذا الحقل وصفًا لطلبك من النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجِم العبارة من الإنجليزية إلى الفرنسية" أو "صنِّف المشاعر في الجملة على أنّها سعيدة أو حزينة أو محايدة".

سيحظى أي محتوى مضمّن في هذا الحقل بالأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج وتم اقتطاع طلب الإدخال.

examples[] object (Example)

اختيارية: أمثلة على ما يجب أن ينشئه النموذج

ويشمل ذلك كلاً من البيانات التي أدخلها المستخدم والاستجابة التي يجب أن يحاكيها النموذج.

يتم التعامل مع هذه examples بشكل مماثل لرسائل المحادثة، باستثناء أنّ لها الأولوية على السجلّ في messages: إذا تجاوز إجمالي حجم الإدخال inputTokenLimit للنموذج، سيتم اقتطاع الإدخال. سيتم إسقاط العناصر من messages قبل examples.

messages[] object (Message)

مطلوب. لقطة من سجلّ المحادثات الأخيرة مرتّبة زمنيًا

تتوالى المشاركات بين مؤلفَين.

إذا تجاوز إجمالي حجم الإدخال inputTokenLimit في النموذج، سيتم اقتطاع الإدخال: سيتم حذف أقدم العناصر من messages.

تمثيل JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

مثال

مثال على الإدخال/الإخراج يُستخدَم لتوجيه النموذج.

ويوضّح كيف يجب أن يستجيب النموذج أو ينسّق استجابته.

الحقول
input object (Message)

مطلوب. مثال على إدخال Message من المستخدم

output object (Message)

مطلوب. مثال على ما يجب أن ينتجه النموذج بناءً على المعلومات المُدخلة

تمثيل JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

الاستجابة من النموذج، بما في ذلك عمليات الإكمال المقترَحة

الحقول
candidates[] object (TextCompletion)

ردود المرشحين من النموذج

filters[] object (ContentFilter)

مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ

يشير ذلك إلى SafetyCategory التي حظرت مرشحًا من هذه الاستجابة، وأقل HarmProbability أدى إلى الحظر، وإعداد HarmThreshold لهذه الفئة. يشير ذلك إلى أصغر تغيير في SafetySettings يكون ضروريًا لإلغاء حظر استجابة واحدة على الأقل.

يتم ضبط الحظر من خلال SafetySettings في الطلب (أو SafetySettings التلقائي لواجهة برمجة التطبيقات).

safetyFeedback[] object (SafetyFeedback)

تعرض هذه الطريقة أي ملاحظات متعلقة بالأمان بشأن فلترة المحتوى.

تمثيل JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

النص الناتج الذي يعرضه النموذج

الحقول
output string

النتائج فقط. النص الذي تم إنشاؤه والذي تم إرجاعه من النموذج

safetyRatings[] object (SafetyRating)

تقييمات لمدى أمان الردّ

يمكن إضافة تقييم واحد كحدّ أقصى لكل فئة.

citationMetadata object (CitationMetadata)

النتائج فقط. معلومات الاقتباس الخاصة بـ output من إنشاء النموذج في هذا TextCompletion

قد يتم ملء هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في output.

تمثيل JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

ملاحظات حول الأمان بشأن طلب كامل

يتم ملء هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات الأمان. قد لا تتوفّر السمة SafetyFeedback لكل HarmCategory. ستعرض كل SafetyFeedback إعدادات الأمان المستخدَمة في الطلب، بالإضافة إلى أدنى قيمة HarmProbability يجب السماح بها لعرض نتيجة.

الحقول
rating object (SafetyRating)

تقييم السلامة الذي يتم تحديده من المحتوى

setting object (SafetySetting)

إعدادات الأمان التي تم تطبيقها على الطلب

تمثيل JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

النص المقدَّم للنموذج كطلب

سيستخدم النموذج TextPrompt لإنشاء إكمال نصي.

الحقول
text string

مطلوب. نص الطلب

تمثيل JSON
{
  "text": string
}