clase pública
LlmInference
API de LlmInference Task Java
Categorías anidadas
clase | LlmInference.LlmInferenceOptions | Opciones para configurar un LlmInference . |
Métodos públicos
void |
close()
Cierra y limpia el
LlmInference . |
estática LlmInference |
createFromOptions(Contexto de contexto, opciones LlmInference.LlmInferenceOptions)
Crea una tarea de LlmInference.
|
String | |
void | |
int |
sizeInTokens(texto String)
Ejecuta una invocación de solo la asignación de token del LLM y muestra el tamaño (en tokens) del resultado.
|
Métodos heredados
Métodos públicos
estática pública LlmInference createFromOptions (contexto de contexto, opciones de LlmInference.LlmInferenceOptions)
Crea una tarea de LlmInference.
Parámetros
Contexto | |
---|---|
Opciones |
public String generateResponse (String inputText)
Genera una respuesta basada en el texto de entrada.
Parámetros
inputText | un String para su procesamiento. |
---|
Arroja
si la inferencia falla. |
public void generateResponseAsync (String inputText)
Genera una respuesta basada en el texto de entrada.
Parámetros
inputText | un String para su procesamiento. |
---|
Arroja
si la inferencia falla. |
public int sizeInTokens (String text)
Ejecuta una invocación de solo la asignación de token del LLM y muestra el tamaño (en tokens) del resultado. No se puede llamar mientras una consulta generateResponse(String)
está activa. generateResponse
Parámetros
text | El texto para la asignación de token. |
---|
Devuelve
- La cantidad de tokens en la asignación de token resultante del texto.
Arroja
si la asignación de token falla. |