LlmInference.LlmInferenceOptions.Builder

clase abstracta estática pública LlmInference.LlmInferenceOptions.Builder

Constructores públicos

Métodos públicos

final LlmInference.LlmInferenceOptions
build()
Valida y compila la instancia de ERROR(/ImageGeneratorOptions).
abstracto LlmInference.LlmInferenceOptions.Builder
setErrorListener(objeto de escucha ErrorListener)
Configura el objeto de escucha de errores que se invocará con la API asíncrona.
abstracto LlmInference.LlmInferenceOptions.Builder
setLoraPath(Cadena loraPath)
Es la ruta de acceso absoluta al paquete de recursos del modelo de LoRA almacenado de forma local en el dispositivo.
abstracto LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens)
Configura la cantidad total de tokens para la entrada y la salida).
abstracto LlmInference.LlmInferenceOptions.Builder
setModelPath(String modelPath)
Establece la ruta de acceso del modelo para la tarea de generador de texto.
abstracto LlmInference.LlmInferenceOptions.Builder
setRandomSeed(int randomSeed)
Configura el valor inicial aleatorio para los tokens de muestreo.
abstracto LlmInference.LlmInferenceOptions.Builder
setResultListener(objeto de escucha ProgressListener<String>)
Configura el objeto de escucha de resultados que se invocará con la API asíncrona.
abstracto LlmInference.LlmInferenceOptions.Builder
setTemperature(temperatura de punto flotante)
Configura la aleatoriedad cuando se decodifica el siguiente token.
abstracto LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
Configura la cantidad del Top K de tokens de los que se tomarán muestras para cada paso de decodificación.

Métodos heredados

Constructores públicos

public Builder ()

Métodos públicos

público final LlmInference.LlmInferenceOptions compilación ()

Valida y compila la instancia de ERROR(/ImageGeneratorOptions).

público abstracto LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener)

Configura el objeto de escucha de errores que se invocará con la API asíncrona.

Parámetros
objeto de escucha

public resumen LlmInference.LlmInferenceOptions.Builder setLoraPath (String loraPath)

Es la ruta de acceso absoluta al paquete de recursos del modelo de LoRA almacenado de forma local en el dispositivo. Solo es compatible con los modelos de GPU.

Parámetros
loraPath

public abstract LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

Configura la cantidad total de tokens para la entrada y la salida).

Parámetros
maxTokens

public resumen LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)

Establece la ruta de acceso del modelo para la tarea de generador de texto.

Parámetros
modelPath

public abstract LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

Configura el valor inicial aleatorio para los tokens de muestreo.

Parámetros
randomSeed

public resumen LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<String> objeto de escucha)

Configura el objeto de escucha de resultados que se invocará con la API asíncrona.

Parámetros
objeto de escucha

public resumen LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura de flotación)

Configura la aleatoriedad cuando se decodifica el siguiente token. Un valor de 0.0f significa una decodificación codiciosa. El valor predeterminado es 0.8f.

Parámetros
temperatura

public resumen LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Configura la cantidad del Top K de tokens de los que se tomarán muestras para cada paso de decodificación. Un valor de 1 significa decodificación voraz. El valor predeterminado es 40.

Parámetros
topK