מחלקה ציבורית
LlmInference
ממשק API של Java למשימת LlmInference
מחלקות מקננות
| מחלקה | LlmInference.LlmInferenceOptions | אפשרויות להגדרת LlmInference. |
|
שיטות ציבוריות
| void |
close()
סוגר ומנקה את
LlmInference. |
| סטטי LlmInference | |
| String | |
| void | |
| int |
sizeInTokens(טקסט מחרוזת)
הפונקציה מפעילה קריאה רק לאסימונים של ה-LLM, ומחזירה את הגודל (באסימונים) של התוצאה.
|
שיטות שעברו בירושה
שיטות ציבוריות
ציבורי סטטי LlmInference createFromOptions (הֶקשר, LlmInference.LlmInferenceOptions)
יצירת משימת LlmInference.
פרמטרים
| context | |
|---|---|
| אפשרויות |
public void generateResponseAsync (מחרוזת קלטText)
public int sizeInTokens (מחרוזת טקסט)
הפונקציה מפעילה קריאה רק לאסימונים של ה-LLM, ומחזירה את הגודל (באסימונים) של התוצאה. לא ניתן לקבל קריאה כל עוד שאילתת generateResponse(String) פעילה. createResponse
פרמטרים
| טקסט | הטקסט שאותו רוצים להמיר לאסימונים. |
|---|
החזרות
- מספר האסימונים שהופקו בהמרה לאסימונים של הטקסט.
קליעות
| אם ההמרה לאסימונים נכשלת. |