GpuDelegateFactory.Options

public static class GpuDelegateFactory.Options
既知の直接サブクラス

委任オプション。

ネストされたクラス

enum GpuDelegateFactory.Options.GpuBackend 選択する GPU バックエンド。

定数

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER Delegate は一度しか使用されないため、bootstrap/init の時間を考慮する必要があります。
int INFERENCE_PREFERENCE_SUSTAINED_SPEED スループットを最大にすることを優先する。

パブリック コンストラクタ

パブリック メソッド

ブール値
GpuDelegateFactory.Options.GpuBackend
整数
文字列
文字列
ブール値
GpuDelegateFactory.Options
setForceBackendGpuDelegateFactory.Options.GpuBackend forceBackend)
GPU バックエンドを設定します。
GpuDelegateFactory.Options
setInferencePreference(intPreference)
精度/コンパイル/ランタイムのトレードオフに関する推論設定を指定します。
GpuDelegateFactory.Options
setPrecisionLossAllowed(boolean precisionLossAllowed)
精度の低下が許容されるかどうかを設定します。
GpuDelegateFactory.Options
setQuantizedModelsAllowed(ブール値 quantizedModelsAllowed)
デリゲートを使用して量子化モデルを実行できます。
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
デリゲートのシリアル化を有効にします。

継承されるメソッド

定数

public static final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

Delegate は 1 回だけ使用するため、bootstrap/init の時間を考慮する必要があります。

定数値: 0

public static final int INFERENCE_PREFERENCE_SUSTAINED_SPEED

スループットを最大にすることを優先する。複数の入力で同じデリゲートが繰り返し使用されます。

定数値: 1

パブリック コンストラクタ

public オプション ()

パブリック メソッド

public boolean areQuantizedModelsAllowed ()

public GpuDelegateFactory.Options.GpuBackend getForceBackend ()

public int getInferencePreference ()

public String getModelToken ()

public String getSerializationDir ()

public boolean isPrecisionLossAllowed ()

public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend

GPU バックエンドを設定します。

パラメータ
forceBackend

public GpuDelegateFactory.Options setInferencePreference (intPreference)

精度/コンパイル/ランタイムのトレードオフに関する推論設定を指定します。

パラメータ
設定 「INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER」(デフォルト)と「INFERENCE_PREFERENCE_SUSTAINED_SPEED」のいずれか。

public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

精度の低下が許容されるかどうかを設定します。

パラメータ
precisionLossAllowed 「true」(デフォルト)の場合、GPU はテンソル、ダウンキャスト値を FP16 で定量化できます。「false」の場合、計算は 32 ビット浮動小数点で実行されます。

public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

デリゲートを使用した量子化モデルの実行を有効にします。

警告: これは試験運用版の API であり、変更される可能性があります。

パラメータ
quantizedModelsAllowed true(デフォルト)の場合、GPU は量子化モデルを実行できます。

public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)

デリゲートのシリアル化を有効にします。シリアル化には、null 以外の serializationDirmodelToken が必要です。

警告: これは試験運用版の API であり、変更される可能性があります。

パラメータ
serializationDir データの保存に使用するディレクトリ。呼び出し元は、モデルが公開ディレクトリに保存されないようにする必要があります。Android では、Context.getCodeCacheDir() を使用してアプリのプライベートな場所を指定することをおすすめします。
modelToken モデルの識別に使用されるトークン。呼び出し元は、トークンがモデルのグラフとデータに対して一意になるようにする必要があります。