LlmInference.LlmInferenceOptions.Builder

classe abstrata estática pública LlmInference.LlmInferenceOptions.Builder

Builder para a classe LlmInference.LlmInferenceOptions.

Construtores públicos

Métodos públicos

final LlmInference.LlmInferenceOptions
build()
Valida e cria a instância ERROR(/ImageGeneratorOptions).
abstrato LlmInference.LlmInferenceOptions.Builder
setErrorListener(listener ErrorListener)
Define o listener de erro a ser invocado com a API assíncrona.
abstrato LlmInference.LlmInferenceOptions.Builder
setLoraPath(String loraPath)
O caminho absoluto para o pacote de recursos do modelo LoRA armazenado localmente no dispositivo.
abstrato LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens)
Configura o número total de tokens de entrada e saída.
abstrato LlmInference.LlmInferenceOptions.Builder
setModelPath(ModelPath String)
Define o caminho do modelo para a tarefa do gerador de texto.
abstrato LlmInference.LlmInferenceOptions.Builder
setRandomSeed(int randomSeed)
Configura uma semente aleatória para tokens de amostragem.
abstrato LlmInference.LlmInferenceOptions.Builder
setResultListener(listener ProgressListener<String>)
Define o listener de resultados a ser invocado com a API assíncrona.
abstrato LlmInference.LlmInferenceOptions.Builder
setTemperature(temperatura flutuante)
Configura a aleatoriedade ao decodificar o próximo token.
abstrato LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
Configura o número Top-K de tokens para amostragem em cada etapa de decodificação.

Métodos herdados

Construtores públicos

public Builder ()

Métodos públicos

public final LlmInference.LlmInferenceOptions build ()

Valida e cria a instância ERROR(/ImageGeneratorOptions).

public abstrato LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener listener)

Define o listener de erro a ser invocado com a API assíncrona.

Parâmetros
listener

public LlmInference.LlmInferenceOptions.Builder setLoraPath (String loraPath)

O caminho absoluto para o pacote de recursos do modelo LoRA armazenado localmente no dispositivo. Isso só é compatível com modelos de GPU.

Parâmetros
loraPath

public LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

Configura o número total de tokens de entrada e saída.

Parâmetros
maxTokens

public abstrato LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)

Define o caminho do modelo para a tarefa do gerador de texto.

Parâmetros
modelPath

public LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

Configura uma semente aleatória para tokens de amostragem.

Parâmetros
randomSeed

public abstrato LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<String> listener)

Define o listener de resultados a ser invocado com a API assíncrona.

Parâmetros
listener

public abstrato LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura flutuante)

Configura a aleatoriedade ao decodificar o próximo token. Um valor de 0.0f significa decodificação gananciosa. O valor padrão é 0.8f.

Parâmetros
temperatura

public LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Configura o número Top-K de tokens para amostragem em cada etapa de decodificação. O valor 1 significa decodificação gananciosa. O valor padrão é 40.

Parâmetros
topK