REST Resource: models

منبع: مدل

اطلاعات در مورد یک مدل زبان مولد.

نمایندگی JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
زمینه های
name

string

ضروری. نام منبع Model

قالب: models/{model} با قرارداد نامگذاری {model} از:

  • "{baseModelId}-{version}"

مثال ها:

  • models/chat-bison-001
baseModelId

string

ضروری. نام مدل پایه، این را به درخواست نسل منتقل کنید.

مثال ها:

  • chat-bison
version

string

ضروری. شماره نسخه مدل

این نشان دهنده نسخه اصلی است

displayName

string

نام قابل خواندن برای انسان مدل. به عنوان مثال "چت بیسون".

نام می تواند حداکثر 128 کاراکتر باشد و می تواند از هر کاراکتر UTF-8 تشکیل شود.

description

string

توضیح مختصری در مورد مدل

inputTokenLimit

integer

حداکثر تعداد کدهای ورودی مجاز برای این مدل.

outputTokenLimit

integer

حداکثر تعداد توکن های خروجی موجود برای این مدل.

supportedGenerationMethods[]

string

روش های تولید پشتیبانی شده مدل

نام متدها به صورت رشته های موردی Pascal تعریف می شوند، مانند generateMessage که با متدهای API مطابقت دارد.

temperature

number

تصادفی بودن خروجی را کنترل می کند.

مقادیر می توانند بیش از [0.0,1.0] ، شامل محدوده باشند. یک مقدار نزدیک به 1.0 پاسخ هایی را ایجاد می کند که متنوع تر هستند، در حالی که مقدار نزدیک به 0.0 معمولاً منجر به پاسخ های شگفت انگیز کمتری از مدل می شود. این مقدار پیش‌فرض را مشخص می‌کند که در هنگام برقراری تماس با مدل توسط backend استفاده شود.

topP

number

برای نمونه برداری هسته

نمونه برداری هسته کوچکترین مجموعه ای از نشانه ها را در نظر می گیرد که مجموع احتمال آنها حداقل topP باشد. این مقدار پیش‌فرض را مشخص می‌کند که در هنگام برقراری تماس با مدل توسط backend استفاده شود.

topK

integer

برای نمونه گیری Top-k.

نمونه گیری Top-k مجموعه ای از محتمل ترین توکن های topK را در نظر می گیرد. این مقدار پیش‌فرض را مشخص می‌کند که در هنگام برقراری تماس با مدل توسط backend استفاده شود. اگر خالی باشد، نشان می دهد که مدل از نمونه برداری top-k استفاده نمی کند و topK به عنوان پارامتر تولید مجاز نیست.

مواد و روش ها

batchEmbedContents

چندین جاسازی را از مدل متن ورودی داده شده در یک تماس همزمان ایجاد می کند.

batchEmbedText

چندین جاسازی را از مدل متن ورودی داده شده در یک تماس همزمان ایجاد می کند.

countMessageTokens

توکنایزر یک مدل را روی یک رشته اجرا می کند و تعداد توکن ها را برمی گرداند.

countTextTokens

توکنایزر یک مدل را روی یک متن اجرا می کند و تعداد توکن ها را برمی گرداند.

countTokens

توکنایزر مدل را روی محتوای ورودی اجرا می کند و تعداد توکن ها را برمی گرداند.

embedContent

یک جاسازی از مدل داده شده به Content ورودی ایجاد می کند.

embedText

یک جاسازی از مدل با یک پیام ورودی ایجاد می کند.

generateAnswer

یک پاسخ پایه از مدلی که یک ورودی GenerateAnswerRequest داده شده است ایجاد می کند.

generateContent

پاسخی را از مدل با یک ورودی GenerateContentRequest ایجاد می کند.

generateMessage

پاسخی را از مدل با یک MessagePrompt ورودی ایجاد می کند.

generateText

یک پاسخ از مدل با یک پیام ورودی ایجاد می کند.

get

اطلاعاتی در مورد یک مدل خاص دریافت می کند.

list

مدل های موجود از طریق API را فهرست می کند.

streamGenerateContent

یک پاسخ جریانی از مدل با یک ورودی GenerateContentRequest ایجاد می کند.