Costruttore per LlmInference.LlmInferenceOptions
.
Costruttori pubblici
Builder()
|
Metodi pubblici
finale LlmInference.LlmInferenceOptions |
build()
Convalida e crea l'istanza
ERROR(/ImageGeneratorOptions) . |
astratto LlmInference.LlmInferenceOptions.Builder |
setErrorListener(ascoltatore ErrorListener)
Imposta il listener di errori da richiamare con l'API asincrona.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setLoraPath(Stringa loraPath)
Il percorso assoluto al bundle di asset del modello LoRA memorizzato localmente sul dispositivo.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setMaxTokens(int maxTokens)
configura il numero totale di token per input e output).
|
astratto LlmInference.LlmInferenceOptions.Builder |
setModelPath(Stringa modelPath)
Imposta il percorso del modello per l'attività del generatore di testo.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setRandomSeed(in randomSeed)
Configura il seed casuale per i token di campionamento.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setResultListener(ProgressListener<Listener>)
Imposta il listener dei risultati da richiamare con l'API asincrona.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setTemperature(temperatura mobile)
Configura la casualità durante la decodifica del token successivo.
|
astratto LlmInference.LlmInferenceOptions.Builder |
setTopK(int topK)
Consente di configurare il numero k di token da campionare per ogni passaggio di decodifica.
|
Metodi ereditati
Costruttori pubblici
pubblica Builder ()
Metodi pubblici
pubblici final LlmInference.LlmInferenceOptions build ()
Convalida e crea l'istanza ERROR(/ImageGeneratorOptions)
.
pubblici astratto LlmInference.LlmInferenceOptions.Builder setErrorListener (ErrorListener)
Imposta il listener di errori da richiamare con l'API asincrona.
Parametri
listener |
---|
pubblici astratta LlmInference.LlmInferenceOptions.Builder setLoraPath (Stringa loraPath)
Il percorso assoluto al bundle di asset del modello LoRA memorizzato localmente sul dispositivo. È compatibile solo con i modelli GPU.
Parametri
loraPath |
---|
pubblici astratto LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)
configura il numero totale di token per input e output).
Parametri
maxTokens |
---|
pubblici astratto LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)
Imposta il percorso del modello per l'attività del generatore di testo.
Parametri
modelPath |
---|
pubblici astratto LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)
Configura il seed casuale per i token di campionamento.
Parametri
randomSeed |
---|
pubblici astratto LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<Stringa> listener)
Imposta il listener dei risultati da richiamare con l'API asincrona.
Parametri
listener |
---|
pubblici astratto LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura mobile)
Configura la casualità durante la decodifica del token successivo. Un valore pari a 0,0f indica una decodifica greedy. Il valore predefinito è 0,8f.
Parametri
temperatura |
---|
pubblico astratto LlmInference.LlmInferenceOptions.Builder setTopK (int topK)
Consente di configurare il numero k di token da campionare per ogni passaggio di decodifica. Il valore 1 indica una decodifica greedy. Il valore predefinito è 40.
Parametri
topK |
---|