الطريقة: models.generateText
تنشئ هذه الطريقة ردًا من النموذج بناءً على رسالة إدخال.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
مَعلمات المسار
model
string
مطلوب. اسم Model
أو TunedModel
المطلوب استخدامه لإنشاء الإكمال أمثلة: models/text-bison-001 tunedModels/sentence-translator-u3b7m ويكون بالتنسيق models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. تمثّل هذه السمة النص الحر الذي يتم إدخاله في النموذج كطلب.
عند تقديم طلب، سينشئ النموذج ردًا من النوع TextCompletion يتوقّع أن يكون استكمالاً للنص المُدخَل.
safetySettings[]
object (SafetySetting
)
اختيارية: قائمة بحالات SafetySetting
الفريدة لحظر المحتوى غير الآمن
التي سيتم فرضها على GenerateTextRequest.prompt
وGenerateTextResponse.candidates
. يجب ألا يكون هناك أكثر من إعداد واحد لكل نوع SafetyCategory
. ستحظر واجهة برمجة التطبيقات أي طلبات وردود لا تستوفي الحدود التي تحدّدها هذه الإعدادات. تلغي هذه القائمة الإعدادات التلقائية لكل SafetyCategory
محدّد في safetySettings. إذا لم يكن هناك SafetySetting
لفئة SafetyCategory
معيّنة مقدَّمة في القائمة، ستستخدم واجهة برمجة التطبيقات إعدادات الأمان التلقائية لهذه الفئة. تتوفّر فئات المحتوى الضار HARM_CATEGORY_DEROGATORY وHARM_CATEGORY_TOXICITY وHARM_CATEGORY_VIOLENCE وHARM_CATEGORY_SEXUAL وHARM_CATEGORY_MEDICAL وHARM_CATEGORY_DANGEROUS في خدمة النصوص.
stopSequences[]
string
مجموعة تسلسلات الأحرف (حتى 5) التي ستؤدي إلى إيقاف إنشاء الناتج. في حال تحديدها، ستتوقف واجهة برمجة التطبيقات عند ظهور تسلسل الإيقاف الأول. لن يتم تضمين تسلسل الإيقاف كجزء من الرد.
temperature
number
اختيارية: تتحكّم هذه السمة في عشوائية الناتج. ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.temperature
الخاصة بالعنصر Model
الذي تم عرضه بواسطة الدالة getModel
.
يمكن أن تتراوح القيم من [0.0,1.0]، بما في ذلك هذين الرقمَين. ستؤدي القيمة الأقرب إلى 1.0 إلى إنشاء ردود أكثر تنوعًا وإبداعًا، بينما ستؤدي القيمة الأقرب إلى 0.0 عادةً إلى إنشاء ردود أكثر مباشرةً من النموذج.
candidateCount
integer
اختيارية: عدد الردود التي تم إنشاؤها والمطلوب عرضها.
يجب أن تتراوح هذه القيمة بين [1, 8]، بما في ذلك هذين الرقمَين. إذا لم يتم ضبط هذا الحقل، سيتم ضبطه تلقائيًا على 1.
maxOutputTokens
integer
اختيارية: الحد الأقصى لعدد الرموز المميّزة التي يمكن تضمينها في كلمة مرشّحة
إذا لم يتم ضبطها، سيتم تلقائيًا استخدام outputTokenLimit المحدّد في مواصفات Model
.
topP
number
اختيارية: الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العيّنات.
يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.
يتم ترتيب الرموز المميزة استنادًا إلى الاحتمالات المحدّدة لها، وبالتالي لا يتم أخذ سوى الرموز المميزة الأكثر ترجيحًا في الاعتبار. يحدّ أخذ العيّنات من أعلى k من الحدّ الأقصى لعدد الرموز المميّزة التي يجب أخذها في الاعتبار، بينما يحدّ أخذ العيّنات من النواة من عدد الرموز المميّزة استنادًا إلى الاحتمال التراكمي.
ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.top_p
الخاصة بالعنصر Model
الذي تم عرضه بواسطة الدالة getModel
.
topK
integer
اختيارية: الحد الأقصى لعدد الرموز المميزة التي يجب أخذها في الاعتبار عند أخذ العيّنات
يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.
تأخذ عملية أخذ العيّنات من أعلى k مجموعة الرموز المميزة topK
الأكثر احتمالاً في الاعتبار. القيمة التلقائية هي 40.
ملاحظة: تختلف القيمة التلقائية حسب الطراز، راجِع السمة Model.top_k
الخاصة بالعنصر Model
الذي تم عرضه بواسطة الدالة getModel
.
نص الاستجابة
إذا كانت الاستجابة ناجحة، يحتوي نص الاستجابة على مثال GenerateTextResponse
.
الطريقة: models.countTextTokens
تعمل هذه الدالة على تشغيل أداة الترميز الخاصة بأحد النماذج على نص معيّن وتعرض عدد الرموز المميزة.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويُستخدَم هذا المعرّف في النموذج.
يجب أن يتطابق هذا الاسم مع اسم نموذج تعرضه الطريقة models.list
.
التنسيق: models/{model}
يتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (TextPrompt
)
مطلوب. تمثّل هذه السمة النص الحر الذي يتم إدخاله في النموذج كطلب.
نص الاستجابة
ردّ من models.countTextTokens
تعرض هذه السمة tokenCount
الخاص بالنموذج prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميزة التي يقسّم إليها model
السلسلة prompt
.
يجب أن تكون القيمة غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: models.generateMessage
ينشئ ردًا من النموذج بناءً على الإدخال MessagePrompt
.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
مَعلمات المسار
model
string
مطلوب. اسم النموذج المطلوب استخدامه.
التنسيق: name=models/{model}
تتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. المدخلات النصية المنظَّمة المقدَّمة إلى النموذج كطلب
عند تقديم طلب، سيعرض النموذج ما يتوقّع أن يكون الرسالة التالية في المناقشة.
temperature
number
اختيارية: تتحكّم هذه السمة في عشوائية الناتج.
يمكن أن تتراوح القيم على [0.0,1.0]
، بما في ذلك. ستؤدي القيمة الأقرب إلى 1.0
إلى إنشاء ردود أكثر تنوّعًا، بينما ستؤدي القيمة الأقرب إلى 0.0
عادةً إلى إنشاء ردود أقل إثارة للدهشة من النموذج.
candidateCount
integer
اختيارية: عدد رسائل الردود التي تم إنشاؤها والمطلوب عرضها.
يجب أن تتراوح هذه القيمة بين [1, 8]
، ضِمنًا. إذا لم يتم ضبط هذه السياسة، سيتم ضبطها تلقائيًا على 1
.
topP
number
اختيارية: الحد الأقصى للاحتمالية التراكمية للرموز المميّزة التي يجب أخذها في الاعتبار عند أخذ العيّنات.
يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.
تأخذ عملية أخذ العيّنات من النواة في الاعتبار أصغر مجموعة من الرموز المميزة التي يكون مجموع احتمالاتها topP
على الأقل.
topK
integer
اختيارية: الحد الأقصى لعدد الرموز المميزة التي يجب أخذها في الاعتبار عند أخذ العيّنات
يستخدم النموذج مزيجًا من أسلوبَي أخذ العينات Top-k وأخذ العينات من النواة.
تأخذ عملية أخذ العيّنات من أعلى k مجموعة الرموز المميزة topK
الأكثر احتمالاً في الاعتبار.
نص الاستجابة
الردّ من النموذج
ويشمل ذلك رسائل المرشحين وسجلّ المحادثات في شكل رسائل مرتّبة زمنيًا.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
candidates[]
object (Message
)
رسائل الردود المحتملة من النموذج
messages[]
object (Message
)
سجلّ المحادثات الذي يستخدمه النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
التي حظرت مرشحًا من هذه الاستجابة، وأقل HarmProbability
أدى إلى الحظر، وإعداد HarmThreshold لهذه الفئة.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
الطريقة: models.countMessageTokens
تعمل هذه الدالة على تشغيل أداة تقسيم الرموز المميزة الخاصة بأحد النماذج على سلسلة وتعرض عدد الرموز المميزة.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
مَعلمات المسار
model
string
مطلوب. اسم مورد النموذج. ويُستخدَم هذا المعرّف في النموذج.
يجب أن يتطابق هذا الاسم مع اسم نموذج تعرضه الطريقة models.list
.
التنسيق: models/{model}
يتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
prompt
object (MessagePrompt
)
مطلوب. الطلب الذي سيتم عرض عدد الرموز المميزة فيه.
نص الاستجابة
ردّ من models.countMessageTokens
تعرض هذه السمة tokenCount
الخاص بالنموذج prompt
.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
tokenCount
integer
عدد الرموز المميزة التي يقسّم إليها model
السلسلة prompt
.
يجب أن تكون القيمة غير سالبة.
تمثيل JSON |
---|
{ "tokenCount": integer } |
الطريقة: models.embedText
تنشئ هذه الدالة تضمينًا من النموذج بالاستناد إلى رسالة إدخال.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
مَعلمات المسار
model
string
مطلوب. اسم النموذج الذي سيتم استخدامه مع النموذج model=models/{model} تتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
text
string
اختيارية: نص الإدخال الحر الذي سيحوّله النموذج إلى تضمين.
الطريقة: models.batchEmbedText
تنشئ هذه الطريقة عدة تضمينات من النموذج بالاستناد إلى النص المُدخَل في طلب متزامن.
نقطة نهاية
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
مَعلمات المسار
model
string
مطلوب. اسم Model
الذي سيتم استخدامه لإنشاء التضمين. أمثلة: models/embedding-gecko-001 تتّخذ الشكل models/{model}
.
نص الطلب
يحتوي نص الطلب على بيانات بالبنية التالية:
texts[]
string
اختيارية: نصوص الإدخال الحرة التي سيحوّلها النموذج إلى تضمين الحدّ الأقصى الحالي هو 100 نص، وفي حال تجاوزه سيظهر خطأ.
requests[]
object (EmbedTextRequest
)
اختيارية: تضمين الطلبات في الدفعة لا يمكن ضبط سوى قيمة واحدة من texts
أو requests
.
نص الاستجابة
تمثّل هذه الفئة الردّ على EmbedTextRequest.
إذا كانت الاستجابة ناجحة، سيحتوي نص الاستجابة على بيانات بالبنية التالية:
embeddings[]
object (Embedding
)
النتائج فقط. التمثيلات المتّجهة التي تم إنشاؤها من النص المُدخَل
تمثيل JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
طلب الحصول على تضمين نصي من النموذج
model
string
مطلوب. اسم النموذج الذي سيتم استخدامه مع النموذج model=models/{model}
text
string
اختيارية: نص الإدخال الحر الذي سيحوّله النموذج إلى تضمين.
تمثيل JSON |
---|
{ "model": string, "text": string } |
ContentFilter
البيانات الوصفية لفلترة المحتوى المرتبطة بمعالجة طلب واحد
يحتوي ContentFilter على سبب وسلسلة اختيارية داعمة. قد لا يكون السبب محدّدًا.
reason
enum (BlockedReason
)
سبب حظر المحتوى أثناء معالجة الطلب
message
string
سلسلة تصف سلوك الفلترة بمزيد من التفاصيل.
تمثيل JSON |
---|
{
"reason": enum ( |
BlockedReason
قائمة بالأسباب التي قد تؤدي إلى حظر المحتوى
عمليات التعداد | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
لم يتم تحديد سبب الحظر. |
SAFETY |
تم حظر المحتوى بسبب إعدادات الأمان. |
OTHER |
تم حظر المحتوى، ولكن السبب غير مصنّف. |
التضمين
قائمة بالأرقام العشرية التي تمثّل التضمين
value[]
number
قيم التضمين.
تمثيل JSON |
---|
{ "value": [ number ] } |
الرسالة
الوحدة الأساسية للنص المنظَّم
يتضمّن Message
author
وcontent
الخاص بـ Message
.
يتم استخدام author
لوضع علامات على الرسائل عند إدخالها إلى النموذج كنص.
content
string
مطلوب. تمثّل هذه السمة المحتوى النصي للبيانات المنظَّمة Message
.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاقتباس الخاصة بـ content
من إنشاء النموذج في هذا Message
إذا تم إنشاء Message
كنتيجة من النموذج، قد يتم ملء هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في content
. يُستخدَم هذا الحقل في الإخراج فقط.
تمثيل JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
جميع نصوص الإدخال المنظَّمة التي تم تمريرها إلى النموذج كطلب
يحتوي MessagePrompt
على مجموعة منظَّمة من الحقول التي توفّر سياقًا للمحادثة، وأمثلة على أزواج الرسائل التي تتضمّن مدخلات المستخدم ومخرجات النموذج والتي تحفّز النموذج على الرد بطرق مختلفة، وسجلّ المحادثة أو قائمة الرسائل التي تمثّل الأدوار المتناوبة للمحادثة بين المستخدم والنموذج.
context
string
اختيارية: النص الذي يجب تقديمه إلى النموذج أولاً لتحديد سياق الردّ.
إذا لم يكن هذا الحقل فارغًا، سيتم منح context
للنموذج أولاً قبل examples
وmessages
. عند استخدام context
، احرص على تضمينه في كل طلب للحفاظ على الاستمرارية.
يمكن أن يكون هذا الحقل وصفًا لطلبك من النموذج للمساعدة في توفير السياق وتوجيه الردود. أمثلة: "ترجِم العبارة من الإنجليزية إلى الفرنسية" أو "صنِّف المشاعر في الجملة على أنّها سعيدة أو حزينة أو محايدة".
سيحظى أي محتوى مضمّن في هذا الحقل بالأولوية على سجلّ الرسائل إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج وتم اقتطاع طلب الإدخال.
examples[]
object (Example
)
اختيارية: أمثلة على ما يجب أن ينشئه النموذج
ويشمل ذلك كلاً من البيانات التي أدخلها المستخدم والاستجابة التي يجب أن يحاكيها النموذج.
يتم التعامل مع هذه examples
بشكل مماثل لرسائل المحادثة، باستثناء أنّ لها الأولوية على السجلّ في messages
: إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
للنموذج، سيتم اقتطاع الإدخال. سيتم إسقاط العناصر من messages
قبل examples
.
messages[]
object (Message
)
مطلوب. لقطة من سجلّ المحادثات الأخيرة مرتّبة زمنيًا
تتوالى المشاركات بين مؤلفَين.
إذا تجاوز إجمالي حجم الإدخال inputTokenLimit
في النموذج، سيتم اقتطاع الإدخال: سيتم حذف أقدم العناصر من messages
.
مثال
GenerateTextResponse
الاستجابة من النموذج، بما في ذلك عمليات الإكمال المقترَحة
candidates[]
object (TextCompletion
)
ردود المرشحين من النموذج
filters[]
object (ContentFilter
)
مجموعة من البيانات الوصفية لفلترة المحتوى في نص الطلب والردّ
يشير ذلك إلى SafetyCategory
التي حظرت مرشحًا من هذه الاستجابة، وأقل HarmProbability
أدى إلى الحظر، وإعداد HarmThreshold لهذه الفئة. يشير ذلك إلى أصغر تغيير في SafetySettings
يكون ضروريًا لإلغاء حظر استجابة واحدة على الأقل.
يتم ضبط الحظر من خلال SafetySettings
في الطلب (أو SafetySettings
التلقائي لواجهة برمجة التطبيقات).
safetyFeedback[]
object (SafetyFeedback
)
تعرض هذه الطريقة أي ملاحظات متعلقة بالأمان بشأن فلترة المحتوى.
تمثيل JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
النص الناتج الذي يعرضه النموذج
output
string
النتائج فقط. النص الذي تم إنشاؤه والذي تم إرجاعه من النموذج
safetyRatings[]
object (SafetyRating
)
تقييمات لمدى أمان الردّ
يمكن إضافة تقييم واحد كحدّ أقصى لكل فئة.
citationMetadata
object (CitationMetadata
)
النتائج فقط. معلومات الاقتباس الخاصة بـ output
من إنشاء النموذج في هذا TextCompletion
قد يتم ملء هذا الحقل بمعلومات تحديد المصدر لأي نص مضمّن في output
.
تمثيل JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ملاحظات حول الأمان بشأن طلب كامل
يتم ملء هذا الحقل إذا تم حظر المحتوى في الإدخال و/أو الردّ بسبب إعدادات الأمان. قد لا تتوفّر السمة SafetyFeedback لكل HarmCategory. ستعرض كل SafetyFeedback إعدادات الأمان المستخدَمة في الطلب، بالإضافة إلى أدنى قيمة HarmProbability يجب السماح بها لعرض نتيجة.
rating
object (SafetyRating
)
تقييم السلامة الذي يتم تحديده من المحتوى
setting
object (SafetySetting
)
إعدادات الأمان التي تم تطبيقها على الطلب
تمثيل JSON |
---|
{ "rating": { object ( |