clase pública
LlmInference
API de LlmInference Task Java
Categorías anidadas
| clase | LlmInference.LlmInferenceOptions | Opciones para configurar un LlmInference. |
|
Métodos públicos
| void |
close()
Cierra y limpia el
LlmInference. |
| estática LlmInference |
createFromOptions(Contexto de contexto, opciones LlmInference.LlmInferenceOptions)
Crea una tarea de LlmInference.
|
| String | |
| void | |
| int |
sizeInTokens(texto String)
Ejecuta una invocación de solo la asignación de token del LLM y muestra el tamaño (en tokens) del resultado.
|
Métodos heredados
Métodos públicos
estática pública LlmInference createFromOptions (contexto de contexto, opciones de LlmInference.LlmInferenceOptions)
Crea una tarea de LlmInference.
Parámetros
| Contexto | |
|---|---|
| Opciones |
public String generateResponse (String inputText)
Genera una respuesta basada en el texto de entrada.
Parámetros
| inputText | un String para su procesamiento. |
|---|
Arroja
| si la inferencia falla. |
public void generateResponseAsync (String inputText)
Genera una respuesta basada en el texto de entrada.
Parámetros
| inputText | un String para su procesamiento. |
|---|
Arroja
| si la inferencia falla. |
public int sizeInTokens (String text)
Ejecuta una invocación de solo la asignación de token del LLM y muestra el tamaño (en tokens) del resultado. No se puede llamar mientras una consulta generateResponse(String) está activa. generateResponse
Parámetros
| text | El texto para la asignación de token. |
|---|
Devuelve
- La cantidad de tokens en la asignación de token resultante del texto.
Arroja
| si la asignación de token falla. |