classe pública
LlmInference
API LlmInference em Java de tarefas
Classes aninhadas
classe | LlmInference.LlmInferenceOptions | Opções para configurar um LlmInference . |
Métodos públicos
void |
close()
Fecha e limpa o
LlmInference . |
estático LlmInference |
createFromOptions(contexto de contexto, opções LlmInference.LlmInferenceOptions)
Cria uma tarefa do LlmInference.
|
String | |
void | |
int |
sizeInTokens(texto de string)
Executa uma invocação apenas da tokenização do LLM e retorna o tamanho (em
tokens) do resultado.
|
Métodos herdados
Métodos públicos
public Static LlmInference createFromOptions (Contexto do contexto, LlmInference.LlmInferenceOptions opções)
Cria uma tarefa do LlmInference.
Parâmetros
contexto | |
---|---|
do modelo. |
public String generateResponse (String inputText)
Gera uma resposta com base no texto de entrada.
Parâmetros
inputText | um String para processamento. |
---|
Gera
se a inferência falhar. |
public void generateResponseAsync (String inputText)
Gera uma resposta com base no texto de entrada.
Parâmetros
inputText | um String para processamento. |
---|
Gera
se a inferência falhar. |
public int sizeInTokens (string texto)
Executa uma invocação apenas da tokenização do LLM e retorna o tamanho (em
tokens) do resultado. Não será possível chamar enquanto uma consulta generateResponse(String)
estiver
ativa. generateResponse
Parâmetros
texto | O texto a tokenizar. |
---|
Retorna
- O número de tokens na tokenização resultante do texto.
Gera
se a tokenização falhar. |