LlmInference.LlmInferenceOptions.Builder

publiczna statyczna klasa abstrakcji LlmInference.LlmInferenceOptions.Builder

Konstruktorzy publiczni

Metody publiczne

final LlmInference.LlmInferenceOptions
build()
Weryfikuje i buduje instancję ERROR(/ImageGeneratorOptions).
abstract LlmInference.LlmInferenceOptions.Builder
setErrorListener(detektor ErrorListener)
Ustawia detektor błędów do wywoływania za pomocą asynchronicznego interfejsu API.
abstract LlmInference.LlmInferenceOptions.Builder
setLoraPath(ciąg znaków loraPath)
Ścieżka bezwzględna do pakietu zasobów modelu LoRA zapisanego lokalnie na urządzeniu.
abstract LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens),
Konfiguruje łączną liczbę tokenów danych wejściowych i wyjściowych.
abstract LlmInference.LlmInferenceOptions.Builder
setModelPath(ciąg znaków modelPath)
Ustawia ścieżkę modelu dla zadania generatora tekstu.
abstract LlmInference.LlmInferenceOptions.Builder
setRandomSeed(w randomSeed)
Konfiguruje losową wartość początkową tokenów próbkowania.
abstract LlmInference.LlmInferenceOptions.Builder
setResultListener(detektor ProgressListener<ciąg znaków>)
Ustawia detektor wyników do wywoływania za pomocą asynchronicznego interfejsu API.
abstract LlmInference.LlmInferenceOptions.Builder
setTemperature(temperatura zmiennoprzecinkowa)
Konfiguruje losowość podczas dekodowania następnego tokena.
abstract LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
Konfiguruje maksymalną liczbę (K) tokenów, z których mają być próbkowane dane w każdym kroku dekodowania.

Metody dziedziczone

Konstruktorzy publiczni

public Builder ()

Metody publiczne

public final LlmInference.LlmInferenceOptions build ()

Weryfikuje i buduje instancję ERROR(/ImageGeneratorOptions).

public abstract LlmInference.LlmInferenceOptions.Builder setErrorListener (detektor ErrorListener)

Ustawia detektor błędów do wywoływania za pomocą asynchronicznego interfejsu API.

Parametry
detektor

public abstract LlmInference.LlmInferenceOptions.Builder setLoraPath (ciąg loraPath)

Ścieżka bezwzględna do pakietu zasobów modelu LoRA zapisanego lokalnie na urządzeniu. Ta funkcja jest zgodna tylko z modelami GPU.

Parametry
loraPath

public abstract LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

Konfiguruje łączną liczbę tokenów danych wejściowych i wyjściowych.

Parametry
maxTokens

public abstract LlmInference.LlmInferenceOptions.Builder setModelPath (ciąg modelPath)

Ustawia ścieżkę modelu dla zadania generatora tekstu.

Parametry
modelPath

public abstract LlmInference.LlmInferenceOptions.Builder setRandomSeed (w randomSeed)

Konfiguruje losową wartość początkową tokenów próbkowania.

Parametry
randomSeed

public abstract LlmInference.LlmInferenceOptions.Builder setResultListener (detektor ProgressListener<String>)

Ustawia detektor wyników do wywoływania za pomocą asynchronicznego interfejsu API.

Parametry
detektor

public abstract LlmInference.LlmInferenceOptions.Builder setTemperature (temperatura zmiennoprzecinkowa)

Konfiguruje losowość podczas dekodowania następnego tokena. Wartość 0,0f oznacza dekodowanie zachłanne. Wartość domyślna to 0,8f.

Parametry
temperatura

public abstract LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Konfiguruje maksymalną liczbę (K) tokenów, z których mają być próbkowane dane w każdym kroku dekodowania. Wartość 1 oznacza dekodowanie zachłanne. Wartością domyślną jest 40.

Parametry
topK