LlmInference.LlmInferenceOptions

public static 抽象クラス LlmInference.LlmInferenceOptions

LlmInference の設定オプション。

ネストされたクラス

クラス LlmInference.LlmInferenceOptions.Builder LlmInference.LlmInferenceOptions のビルダー。 

パブリック コンストラクタ

パブリック メソッド

static LlmInference.LlmInferenceOptions.Builder
builder()
新しい LlmInferenceOptions ビルダーをインスタンス化します。
抽象 省略可<ErrorListener>
errorListener()
ERROR(/LlmInference#generateAsync) API に使用するエラーリスナー。
抽象 省略可<文字列>
loraPath()
デバイスにローカルに保存されている LoRA モデルアセット バンドルの絶対パス。
抽象 整数
maxTokens()
kv-cache の合計長。
抽象 文字列
modelPath()
tflite モデルファイルを指すパス。
抽象 整数
randomSeed()
トークンをサンプリングするためのランダム シード。
抽象 省略可<ProgressListener<String>>
resultListener()
ERROR(/LlmInference#generateAsync) API に使用する結果リスナー。
抽象 浮動小数点
temperature()
次のトークンをデコードする際のランダム性。
抽象 整数
topK()
デコード ステップごとにサンプリングされるトークンの上位 K 個。

継承されるメソッド

パブリック コンストラクタ

public LlmInferenceOptions ()

パブリック メソッド

public static LlmInference.LlmInferenceOptions.Builder builder ()

新しい LlmInferenceOptions ビルダーをインスタンス化します。

public 抽象 省略可<ErrorListener> errorListener ()

ERROR(/LlmInference#generateAsync) API に使用するエラーリスナー。

public 抽象 省略可<String> loraPath ()

デバイスにローカルに保存されている LoRA モデルアセット バンドルの絶対パス。これは GPU モデルにのみ互換性があります。

public 抽象 int maxTokens ()

kv-cache の合計長。つまり、モデルが処理する必要がある入力トークンと出力トークンの合計数になります。

public 抽象 文字列 modelPath ()

tflite モデルファイルを指すパス。

public 抽象 int randomSeed ()

トークンをサンプリングするためのランダム シード。

public 抽象 省略可<ProgressListener<String>> resultListener ()

ERROR(/LlmInference#generateAsync) API に使用する結果リスナー。

public 抽象 float temperature ()

次のトークンをデコードする際のランダム性。値 0.0f は、貪欲デコードを意味します。

public 抽象 int topK ()

デコード ステップごとにサンプリングされるトークンの上位 K 個。値 1 はグリーディ デコードを意味します。