LlmInference

lớp công khai LlmInference

API Java LlmInference Task

Lớp lồng ghép

lớp LlmInference.LlmInferenceOptions Các tuỳ chọn để thiết lập LlmInference

Phương thức công khai

void
Hàm close()
Đóng và dọn dẹp LlmInference.
tĩnh LlmInference
createFromOptions(Ngữ cảnh theo bối cảnh, các tuỳ chọn LlmInference.LlmInferenceOptions)
Tạo một tác vụ LlmInference.
String
generateResponse(Chuỗi inputText)
Tạo phản hồi dựa trên văn bản nhập.
void
generateResponseAsync(Chuỗi inputText)
Tạo phản hồi dựa trên văn bản nhập.
int
sizeInTokens(văn bản Chuỗi)
Chạy lệnh gọi chỉ mã hoá cho LLM và trả về kích thước (tính bằng mã thông báo) của kết quả.

Các phương thức kế thừa

Phương thức công khai

công khai void close ()

Đóng và dọn dẹp LlmInference.

công khai tĩnh LlmInference createFromOptions (Ngữ cảnh ngữ cảnh, LlmInference.LlmInferenceOptions tùy chọn)

Tạo một tác vụ LlmInference.

Tham số
bối cảnh
tùy chọn

công khai Chuỗi generateResponse (Chuỗi inputText)

Tạo phản hồi dựa trên văn bản nhập.

Tham số
inputText String để xử lý.
Gửi
nếu dự đoán thất bại.

công khai void generateResponseAsync (String inputText)

Tạo phản hồi dựa trên văn bản nhập.

Tham số
inputText String để xử lý.
Gửi
nếu dự đoán thất bại.

công khai int sizeInTokens (Chuỗi văn bản)

Chạy lệnh gọi chỉ mã hoá cho LLM và trả về kích thước (tính bằng mã thông báo) của kết quả. Không thể gọi khi truy vấn generateResponse(String) đang hoạt động. generateResponse

Tham số
văn bản Văn bản cần mã hoá.
Giá trị trả về
  • Số mã thông báo trong quá trình mã hoá văn bản thu được.
Gửi
nếu quá trình mã hoá không thành công.