LlmInference.LlmInferenceOptions.Builder

classe abstraite statique publique LlmInference.LlmInferenceOptions.Builder

Constructeurs publics

Méthodes publiques

finale LlmInference.LlmInferenceOptions
build()
Valide et compile l'instance ERROR(/ImageGeneratorOptions).
abstrait LlmInference.LlmInferenceOptions.Builder
setErrorListener(écouteur ErrorListener)
Définit l'écouteur d'erreurs à appeler avec l'API asynchrone.
abstrait LlmInference.LlmInferenceOptions.Builder
setLoraPath(Chaîne loraPath)
Chemin absolu vers le bundle d'assets du modèle LoRA stocké localement sur l'appareil.
abstrait LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens)
Configure le nombre total de jetons pour l'entrée et la sortie).
abstrait LlmInference.LlmInferenceOptions.Builder
setModelPath(String modelPath)
Définit le chemin d'accès au modèle pour la tâche du générateur de texte.
abstrait LlmInference.LlmInferenceOptions.Builder
setRandomSeed(int randomSeed)
Configure une valeur de départ aléatoire pour l'échantillonnage des jetons.
abstrait LlmInference.LlmInferenceOptions.Builder
setResultListener(écouteur ProgressListener<String>)
Définit l'écouteur de résultat à appeler avec l'API asynchrone.
abstrait LlmInference.LlmInferenceOptions.Builder
setTemperature(température de flottement)
Configure le caractère aléatoire lors du décodage du jeton suivant.
abstrait LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
Configure le nombre top-K de jetons à échantillonner pour chaque étape de décodage.

Méthodes héritées

Constructeurs publics

public Builder ()

Méthodes publiques

public final LlmInference.LlmInferenceOptions build ()

Valide et compile l'instance ERROR(/ImageGeneratorOptions).

public abstrait LlmInference.LlmInferenceOptions.Builder setErrorListener (écouteur ErrorListener)

Définit l'écouteur d'erreurs à appeler avec l'API asynchrone.

Paramètres
écouteur

public abstrait LlmInference.LlmInferenceOptions.Builder setLoraPath (String loraPath)

Chemin absolu vers le bundle d'assets du modèle LoRA stocké localement sur l'appareil. Elle n'est compatible qu'avec les modèles de GPU.

Paramètres
loraPath

public abstrait LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

Configure le nombre total de jetons pour l'entrée et la sortie).

Paramètres
maxTokens

public abstrait LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)

Définit le chemin d'accès au modèle pour la tâche du générateur de texte.

Paramètres
modelPath

public abstrait LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

Configure une valeur de départ aléatoire pour l'échantillonnage des jetons.

Paramètres
randomSeed

public abstrait LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<String> écouteur)

Définit l'écouteur de résultat à appeler avec l'API asynchrone.

Paramètres
écouteur

public abstrait LlmInference.LlmInferenceOptions.Builder setTemperature (température de float)

Configure le caractère aléatoire lors du décodage du jeton suivant. Une valeur de 0,0f signifie un décodage gourmand. La valeur par défaut est 0.8f.

Paramètres
température

public abstrait LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

Configure le nombre top-K de jetons à échantillonner pour chaque étape de décodage. Une valeur de 1 indique un décodage gourmand. La valeur par défaut est 40.

Paramètres
topK