Kreator dla: LlmInference.LlmInferenceOptions
.
Konstruktorzy publiczni
Metody publiczne
final LlmInference.LlmInferenceOptions |
build()
Weryfikuje i buduje instancję
ERROR(/ImageGeneratorOptions) . |
abstract LlmInference.LlmInferenceOptions.Builder |
setErrorListener(detektor ErrorListener)
Ustawia detektor błędów do wywoływania za pomocą asynchronicznego interfejsu API.
|
abstract LlmInference.LlmInferenceOptions.Builder |
setLoraPath(ciąg znaków loraPath)
Ścieżka bezwzględna do pakietu zasobów modelu LoRA zapisanego lokalnie na urządzeniu.
|
abstract LlmInference.LlmInferenceOptions.Builder |
setMaxTokens(int maxTokens),
Konfiguruje łączną liczbę tokenów danych wejściowych i wyjściowych.
|
abstract LlmInference.LlmInferenceOptions.Builder | |
abstract LlmInference.LlmInferenceOptions.Builder |
setRandomSeed(w randomSeed)
Konfiguruje losową wartość początkową tokenów próbkowania.
|
abstract LlmInference.LlmInferenceOptions.Builder |
setResultListener(detektor ProgressListener<ciąg znaków>)
Ustawia detektor wyników do wywoływania za pomocą asynchronicznego interfejsu API.
|
abstract LlmInference.LlmInferenceOptions.Builder |
setTemperature(temperatura zmiennoprzecinkowa)
Konfiguruje losowość podczas dekodowania następnego tokena.
|
abstract LlmInference.LlmInferenceOptions.Builder |
setTopK(int topK)
Konfiguruje maksymalną liczbę (K) tokenów, z których mają być próbkowane dane w każdym kroku dekodowania.
|
Metody dziedziczone
Konstruktorzy publiczni
public Builder ()
Metody publiczne
public final LlmInference.LlmInferenceOptions build ()
Weryfikuje i buduje instancję ERROR(/ImageGeneratorOptions)
.
public abstract LlmInference.LlmInferenceOptions.Builder setErrorListener (detektor ErrorListener)
Ustawia detektor błędów do wywoływania za pomocą asynchronicznego interfejsu API.
Parametry
detektor |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setLoraPath (ciąg loraPath)
Ścieżka bezwzględna do pakietu zasobów modelu LoRA zapisanego lokalnie na urządzeniu. Ta funkcja jest zgodna tylko z modelami GPU.
Parametry
loraPath |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)
Konfiguruje łączną liczbę tokenów danych wejściowych i wyjściowych.
Parametry
maxTokens |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setModelPath (ciąg modelPath)
Ustawia ścieżkę modelu dla zadania generatora tekstu.
Parametry
modelPath |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setRandomSeed (w randomSeed)
Konfiguruje losową wartość początkową tokenów próbkowania.
Parametry
randomSeed |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setResultListener (detektor ProgressListener<String>)
Ustawia detektor wyników do wywoływania za pomocą asynchronicznego interfejsu API.
Parametry
detektor |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura zmiennoprzecinkowa)
Konfiguruje losowość podczas dekodowania następnego tokena. Wartość 0,0f oznacza dekodowanie zachłanne. Wartość domyślna to 0,8f.
Parametry
temperatura |
---|
public abstract LlmInference.LlmInferenceOptions.Builder setTopK (int topK)
Konfiguruje maksymalną liczbę (K) tokenów, z których mają być próbkowane dane w każdym kroku dekodowania. Wartość 1 oznacza dekodowanie zachłanne. Wartością domyślną jest 40.
Parametry
topK |
---|