public static class
GpuDelegateFactory.Options
既知の直接サブクラス |
委任オプション。
ネストされたクラス
enum | GpuDelegateFactory.Options.GpuBackend | 選択する GPU バックエンド。 |
定数
int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Delegate は一度しか使用されないため、bootstrap/init の時間を考慮する必要があります。 |
int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | スループットを最大にすることを優先する。 |
パブリック コンストラクタ
オプション()
|
パブリック メソッド
ブール値 | |
GpuDelegateFactory.Options.GpuBackend | |
整数 | |
文字列 | |
文字列 | |
ブール値 | |
GpuDelegateFactory.Options | |
GpuDelegateFactory.Options |
setInferencePreference(intPreference)
精度/コンパイル/ランタイムのトレードオフに関する推論設定を指定します。
|
GpuDelegateFactory.Options |
setPrecisionLossAllowed(boolean precisionLossAllowed)
精度の低下が許容されるかどうかを設定します。
|
GpuDelegateFactory.Options |
setQuantizedModelsAllowed(ブール値 quantizedModelsAllowed)
デリゲートを使用して量子化モデルを実行できます。
|
GpuDelegateFactory.Options |
継承されるメソッド
定数
public static final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Delegate は 1 回だけ使用するため、bootstrap/init の時間を考慮する必要があります。
定数値:
0
public static final int INFERENCE_PREFERENCE_SUSTAINED_SPEED
スループットを最大にすることを優先する。複数の入力で同じデリゲートが繰り返し使用されます。
定数値:
1
パブリック コンストラクタ
public オプション ()
パブリック メソッド
public boolean areQuantizedModelsAllowed ()
public int getInferencePreference ()
public boolean isPrecisionLossAllowed ()
public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend
GPU バックエンドを設定します。
パラメータ
forceBackend |
---|
public GpuDelegateFactory.Options setInferencePreference (intPreference)
精度/コンパイル/ランタイムのトレードオフに関する推論設定を指定します。
パラメータ
設定 | 「INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER」(デフォルト)と「INFERENCE_PREFERENCE_SUSTAINED_SPEED」のいずれか。 |
---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
精度の低下が許容されるかどうかを設定します。
パラメータ
precisionLossAllowed | 「true」(デフォルト)の場合、GPU はテンソル、ダウンキャスト値を FP16 で定量化できます。「false」の場合、計算は 32 ビット浮動小数点で実行されます。 |
---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
デリゲートを使用した量子化モデルの実行を有効にします。
警告: これは試験運用版の API であり、変更される可能性があります。
パラメータ
quantizedModelsAllowed | true (デフォルト)の場合、GPU は量子化モデルを実行できます。 |
---|
public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
デリゲートのシリアル化を有効にします。シリアル化には、null 以外の serializationDir
と modelToken
が必要です。
警告: これは試験運用版の API であり、変更される可能性があります。
パラメータ
serializationDir | データの保存に使用するディレクトリ。呼び出し元は、モデルが公開ディレクトリに保存されないようにする必要があります。Android では、Context.getCodeCacheDir() を使用してアプリのプライベートな場所を指定することをおすすめします。 |
---|---|
modelToken | モデルの識別に使用されるトークン。呼び出し元は、トークンがモデルのグラフとデータに対して一意になるようにする必要があります。 |