GpuDelegate.Options

public static class GpuDelegate.Options

このクラスは非推奨になりました
代わりに GpuDelegateFactory.Options を使用してください。

既存のコードとの互換性を確保するために GpuDelegateFactory.Options から継承します。

継承される定数

org.tensorflow.lite.gpu.GpuDelegateFactory.Options から
int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER Delegate は一度しか使用されないため、bootstrap/init の時間を考慮する必要があります。
int INFERENCE_PREFERENCE_SUSTAINED_SPEED スループットを最大にすることを優先する。

パブリック コンストラクタ

継承されるメソッド

org.tensorflow.lite.gpu.GpuDelegateFactory.Options から
ブール値
GpuDelegateFactory.Options.GpuBackend
整数
文字列
文字列
ブール値
GpuDelegateFactory.Options
setForceBackendGpuDelegateFactory.Options.GpuBackend forceBackend)
GPU バックエンドを設定します。
GpuDelegateFactory.Options
setInferencePreference(intPreference)
精度/コンパイル/ランタイムのトレードオフに関する推論設定を指定します。
GpuDelegateFactory.Options
setPrecisionLossAllowed(boolean precisionLossAllowed)
精度の低下が許容されるかどうかを設定します。
GpuDelegateFactory.Options
setQuantizedModelsAllowed(ブール値 quantizedModelsAllowed)
デリゲートを使用して量子化モデルを実行できます。
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
デリゲートのシリアル化を有効にします。
ブール値
equals(Object arg0)
final クラス<?>
getClass()
整数
hashCode()
final void
notify()
final void
notifyAll()
文字列
toString()
final void
wait(long arg0, int arg1)
final void
wait(long arg0)
final void
wait()

パブリック コンストラクタ

public オプション ()