LlmInference

کلاس عمومی LlmInference

LlmInference Task Java API

کلاس های تو در تو

کلاس LlmInference.LlmInferenceOptions گزینه هایی برای راه اندازی LlmInference .

روش های عمومی

خالی
بستن ()
LlmInference می بندد و پاک می کند.
استاتیک LlmInference
createFromOptions (متن زمینه، گزینه های LlmInference.LlmInferenceOptions )
یک کار LlmInference ایجاد می کند.
رشته
generateResponse (متن ورودی رشته )
پاسخی را بر اساس متن ورودی ایجاد می کند.
خالی
generateResponseAsync (متن ورودی رشته )
پاسخی را بر اساس متن ورودی ایجاد می کند.
بین المللی
sizeInTokens (متن رشته )
فراخوانی فقط توکن سازی برای LLM را اجرا می کند و اندازه (به توکن) نتیجه را برمی گرداند.

روش های ارثی

روش های عمومی

باطل عمومی بسته ()

LlmInference می بندد و پاک می کند.

عمومی استاتیک LlmInference createFromOptions (متن زمینه، گزینه های LlmInference.LlmInferenceOptions )

یک کار LlmInference ایجاد می کند.

مولفه های
متن نوشته
گزینه ها

رشته عمومی generateResponse (متن ورودی رشته )

پاسخی را بر اساس متن ورودی ایجاد می کند.

مولفه های
متن ورودی یک String برای پردازش
پرتاب می کند
اگر استنتاج ناموفق باشد

public void generateResponseAsync (متن ورودی رشته )

پاسخی را بر اساس متن ورودی ایجاد می کند.

مولفه های
متن ورودی یک String برای پردازش
پرتاب می کند
اگر استنباط شکست بخورد

public int sizeInTokens (متن رشته )

فراخوانی فقط توکن سازی برای LLM را اجرا می کند و اندازه (به توکن) نتیجه را برمی گرداند. زمانی که یک کوئری generateResponse(String) فعال است، نمی توان آن را فراخوانی کرد. تولید پاسخ

مولفه های
متن متنی که باید نشانه گذاری شود.
برمی گرداند
  • تعداد نشانه‌ها در توکن‌سازی متن.
پرتاب می کند
اگر توکن سازی با شکست مواجه شود.