LlmInference.LlmInferenceOptions.Builder

public static 抽象クラス LlmInference.LlmInferenceOptions.Builder

パブリック コンストラクタ

パブリック メソッド

final LlmInference.LlmInferenceOptions
build()
ERROR(/ImageGeneratorOptions) インスタンスを検証してビルドします。
抽象 LlmInference.LlmInferenceOptions.Builder
setErrorListenerErrorListener リスナー)
非同期 API で呼び出すエラーリスナーを設定します。
抽象 LlmInference.LlmInferenceOptions.Builder
setLoraPath(String loraPath)
デバイスにローカルに保存されている LoRA モデルアセット バンドルの絶対パス。
抽象 LlmInference.LlmInferenceOptions.Builder
setMaxTokens(int maxTokens)
入出力トークンの合計数を構成します。
抽象 LlmInference.LlmInferenceOptions.Builder
setModelPath(String modelPath)
テキスト生成タスクのモデルパスを設定します。
抽象 LlmInference.LlmInferenceOptions.Builder
setRandomSeed(int randomSeed)
トークンをサンプリングするためのランダムシードを構成します。
抽象 LlmInference.LlmInferenceOptions.Builder
setResultListener(ProgressListener<String> リスナー)
非同期 API で呼び出す結果リスナーを設定します。
抽象 LlmInference.LlmInferenceOptions.Builder
setTemperature(浮動小数点温度)
次のトークンをデコードする際のランダム性を構成します。
抽象 LlmInference.LlmInferenceOptions.Builder
setTopK(int topK)
デコード ステップごとにサンプリングするトークンの上位 K 個を設定します。

継承されるメソッド

パブリック コンストラクタ

public Builder ()

パブリック メソッド

public final LlmInference.LlmInferenceOptions build ()

ERROR(/ImageGeneratorOptions) インスタンスを検証してビルドします。

public 抽象 LlmInference.LlmInferenceOptions.Builder setErrorListener ErrorListener リスナー)

非同期 API で呼び出すエラーリスナーを設定します。

パラメータ
リスナー

public 抽象 LlmInference.LlmInferenceOptions.Builder setLoraPath (String loraPath)

デバイスにローカルに保存されている LoRA モデルアセット バンドルの絶対パス。これは GPU モデルにのみ互換性があります。

パラメータ
loraPath

public 抽象 LlmInference.LlmInferenceOptions.Builder setMaxTokens (int maxTokens)

入出力トークンの合計数を構成します。

パラメータ
maxTokens

public 抽象 LlmInference.LlmInferenceOptions.Builder setModelPath (String modelPath)

テキスト生成タスクのモデルパスを設定します。

パラメータ
modelPath

public 抽象 LlmInference.LlmInferenceOptions.Builder setRandomSeed (int randomSeed)

トークンをサンプリングするためのランダムシードを構成します。

パラメータ
randomSeed

public 抽象 LlmInference.LlmInferenceOptions.Builder setResultListener (ProgressListener<String>リスナー)

非同期 API で呼び出す結果リスナーを設定します。

パラメータ
リスナー

public 抽象 LlmInference.LlmInferenceOptions.Builder setTemperature (float temperature)

次のトークンをデコードする際のランダム性を構成します。値が 0.0f の場合は、貪欲デコードを意味します。デフォルト値は 0.8f です。

パラメータ
温度

public 抽象 LlmInference.LlmInferenceOptions.Builder setTopK (int topK)

デコード ステップごとにサンプリングするトークンの上位 K 個を設定します。値 1 はグリーディ デコードを意味します。デフォルト値は 40 です。

パラメータ
topK