Compilateur pour LlmInference.LlmInferenceOptions
.
Constructeurs publics
Builder()
|
Méthodes publiques
finale LlmInference.LlmInferenceOptions |
build()
Valide et compile l'instance
ERROR(/ImageGeneratorOptions) . |
abstrait LlmInference.LlmInferenceOptions.Builder |
setErrorListener(écouteur ErrorListener)
Définit l'écouteur d'erreurs à appeler avec l'API asynchrone.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setLoraPath(Chaîne loraPath)
Chemin absolu vers le bundle d'assets du modèle LoRA stocké localement sur l'appareil.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setMaxTokens(int maxTokens)
Configure le nombre total de jetons pour l'entrée et la sortie).
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setModelPath(String modelPath)
Définit le chemin d'accès au modèle pour la tâche du générateur de texte.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setRandomSeed(int randomSeed)
Configure une valeur de départ aléatoire pour l'échantillonnage des jetons.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setResultListener(écouteur ProgressListener<String>)
Définit l'écouteur de résultat à appeler avec l'API asynchrone.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setTemperature(température de flottement)
Configure le caractère aléatoire lors du décodage du jeton suivant.
|
abstrait LlmInference.LlmInferenceOptions.Builder |
setTopK(int topK)
Configure le nombre top-K de jetons à échantillonner pour chaque étape de décodage.
|
Méthodes héritées
Constructeurs publics
public Builder ()
Méthodes publiques
public final LlmInference.LlmInferenceOptions build ()
Valide et compile l'instance ERROR(/ImageGeneratorOptions)
.
public abstrait LlmInference.LlmInferenceOptions.Builder setErrorListener (écouteur ErrorListener)
Définit l'écouteur d'erreurs à appeler avec l'API asynchrone.
Paramètres
écouteur |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setLoraPath (String loraPath)
Chemin absolu vers le bundle d'assets du modèle LoRA stocké localement sur l'appareil. Elle n'est compatible qu'avec les modèles de GPU.
Paramètres
loraPath |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)
Configure le nombre total de jetons pour l'entrée et la sortie).
Paramètres
maxTokens |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)
Définit le chemin d'accès au modèle pour la tâche du générateur de texte.
Paramètres
modelPath |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)
Configure une valeur de départ aléatoire pour l'échantillonnage des jetons.
Paramètres
randomSeed |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<String> écouteur)
Définit l'écouteur de résultat à appeler avec l'API asynchrone.
Paramètres
écouteur |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setTemperature (température de float)
Configure le caractère aléatoire lors du décodage du jeton suivant. Une valeur de 0,0f signifie un décodage gourmand. La valeur par défaut est 0.8f.
Paramètres
température |
---|
public abstrait LlmInference.LlmInferenceOptions.Builder setTopK (int topK)
Configure le nombre top-K de jetons à échantillonner pour chaque étape de décodage. Une valeur de 1 indique un décodage gourmand. La valeur par défaut est 40.
Paramètres
topK |
---|