LlmInference.LlmInferenceOptions.Builder

classe astratta statica pubblica LlmInference.LlmInferenceOptions.Builder

Costruttori pubblici

Metodi pubblici

finale LlmInference.LlmInferenceOptions
build()
Convalida e crea l'istanza ERROR(/ImageGeneratorOptions).
astratto LlmInference.LlmInferenceOptions.Builder
setErrorListener(ascoltatore ErrorListener)
Imposta il listener di errori da richiamare con l'API asincrona.
astratto LlmInference.LlmInferenceOptions.Builder
setLoraPath(Stringa loraPath)
Il percorso assoluto al bundle di asset del modello LoRA memorizzato localmente sul dispositivo.
astratto LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens)
configura il numero totale di token per input e output).
astratto LlmInference.LlmInferenceOptions.Builder
setModelPath(Stringa modelPath)
Imposta il percorso del modello per l'attività del generatore di testo.
astratto LlmInference.LlmInferenceOptions.Builder
setRandomSeed(in randomSeed)
Configura il seed casuale per i token di campionamento.
astratto LlmInference.LlmInferenceOptions.Builder
setResultListener(ProgressListener<Listener>)
Imposta il listener dei risultati da richiamare con l'API asincrona.
astratto LlmInference.LlmInferenceOptions.Builder
setTemperature(temperatura mobile)
Configura la casualità durante la decodifica del token successivo.
astratto LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
Consente di configurare il numero k di token da campionare per ogni passaggio di decodifica.

Metodi ereditati

Costruttori pubblici

pubblica Builder ()

Metodi pubblici

pubblici final LlmInference.LlmInferenceOptions build ()

Convalida e crea l'istanza ERROR(/ImageGeneratorOptions).

pubblici astratto LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener)

Imposta il listener di errori da richiamare con l'API asincrona.

Parametri
listener

pubblici astratta LlmInference.LlmInferenceOptions.Builder setLoraPath (Stringa loraPath)

Il percorso assoluto al bundle di asset del modello LoRA memorizzato localmente sul dispositivo. È compatibile solo con i modelli GPU.

Parametri
loraPath

pubblici astratto LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

configura il numero totale di token per input e output).

Parametri
maxTokens

pubblici astratto LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)

Imposta il percorso del modello per l'attività del generatore di testo.

Parametri
modelPath

pubblici astratto LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

Configura il seed casuale per i token di campionamento.

Parametri
randomSeed

pubblici astratto LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<Stringa> listener)

Imposta il listener dei risultati da richiamare con l'API asincrona.

Parametri
listener

pubblici astratto LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura mobile)

Configura la casualità durante la decodifica del token successivo. Un valore pari a 0,0f indica una decodifica greedy. Il valore predefinito è 0,8f.

Parametri
temperatura

pubblico astratto LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Consente di configurare il numero k di token da campionare per ogni passaggio di decodifica. Il valore 1 indica una decodifica greedy. Il valore predefinito è 40.

Parametri
topK