Interpreter.Options

public static class Interpreter.Options]

ランタイム インタープリタの動作を制御するオプション クラス。

パブリック コンストラクタ

パブリック メソッド

Interpreter.Options
addDelegateDelegate デリゲート)
インタープリタの作成時に適用される Delegate を追加します。
Interpreter.Options
addDelegateFactoryDelegateFactory delegateFactory)
インタープリタの作成時に作成された Delegate を適用するために呼び出される DelegateFactory を追加します。
Interpreter.Options
setAllowBufferHandleOutput(ブール値の許可)
詳細設定: バッファ ハンドル出力を許可するかどうかを設定します。
Interpreter.Options
setAllowFp16PrecisionForFp32(ブール値許可)
このメソッドは非推奨になりました。NnApiDelegate.Options#setAllowFp16(boolean enable) を使用することをおすすめします。
Interpreter.Options
setCancellable(ブール値の許可)
詳細設定: 通訳をキャンセルできる場合に設定します。
Interpreter.Options
setNumThreads(int numThreads)
マルチスレッドをサポートする演算に使用されるスレッド数を設定します。
Interpreter.Options
setRuntimeInterpreterApi.Options.TfLiteRuntime ランタイム)
TF Lite ランタイム実装の取得元を指定します。
Interpreter.Options
setUseNNAPI(ブール値 useNNAPI)
演算の実行に NN API(使用可能な場合)を使用するかどうかを設定します。
Interpreter.Options
setUseXNNPACK(ブール値 useXNNPACK)
CPU カーネルの最適化セット(XNNPACK で指定)を有効または無効にします。

継承されるメソッド

パブリック コンストラクタ

public オプション ()

public Options InterpreterApi.Options options)

パラメータ
オプション

パブリック メソッド

public Interpreter.Options addDelegate Delegate delegate)

インタープリタの作成時に適用される Delegate を追加します。

ここで追加した委任は、addDelegateFactory(DelegateFactory) で追加された DelegateFactory から作成された委任よりも前に適用されます。

Google Play 開発者サービスの TF Lite(setRuntime(InterpreterApi.Options.TfLiteRuntime) を参照)は、外部(デベロッパー提供)のデリゲートをサポートしていません。Google Play 開発者サービスで TF Lite を使用する場合、ここで ERROR(/NnApiDelegate) 以外の Delegate を追加することはできません。

パラメータ
delegate

public Interpreter.Options addDelegateFactory DelegateFactory delegateFactory)

インタープリタの作成時に作成された Delegate を適用するために呼び出される DelegateFactory を追加します。

ここで追加された委任ファクトリからの委任は、addDelegate(Delegate) で追加された委任の後に適用されます。

パラメータ
delegateFactory

public Interpreter.Options setAllowBufferHandleOutput (boolean allow)

詳細設定: バッファ ハンドル出力を許可するかどうかを設定します。

Delegate がハードウェア アクセラレーションをサポートしている場合、インタープリタはデフォルトで、CPU によって割り当てられたテンソル バッファで出力テンソルのデータを利用できるようにします。クライアントがバッファ ハンドルを直接使用できる場合(OpenGL テクスチャから出力を読み取る場合など)、このフラグを false に設定して、CPU バッファへのデータのコピーを回避できます。デリゲートのドキュメントでは、この機能がサポートされているかどうかと、その使用方法について説明します。

警告: これは試験運用版のインターフェースであり、変更される可能性があります。

パラメータ
allow

public Interpreter.Options setAllowFp16PrecisionForFp32 (boolean allow)

このメソッドは非推奨になりました
NnApiDelegate.Options#setAllowFp16(boolean enable) を使用することをおすすめします。

可能な場合に FP32 計算で float16 精度を許可するかどうかを設定します。デフォルトは false(不許可)です。

パラメータ
allow

public Interpreter.Options setCancellable (boolean allow)

詳細設定: インタープリタをキャンセルできる場合に設定します。

インタープリタには、試験運用版 API setCancelled(boolean) がある場合があります。このインタープリタがキャンセル可能で、このようなメソッドが呼び出されると、キャンセル フラグが true に設定されます。インタープリタは Op の呼び出し間でフラグを確認し、true の場合は実行を停止します。インタープリタは、setCancelled(false) によって明示的に「キャンセル解除」されるまで、キャンセルされた状態のままになります。

パラメータ
allow

public Interpreter.Options setNumThreads (int numThreads)

マルチスレッドをサポートする演算に使用されるスレッド数を設定します。

numThreads>= -1 にする必要があります。numThreads を 0 に設定すると、マルチスレッドが無効になります。これは、numThreads を 1 に設定した場合と同等です。指定しないか -1 に設定した場合、使用されるスレッド数は実装によって定義され、プラットフォームによって異なります。

パラメータ
numThreads

public Interpreter.Options setRuntime InterpreterApi.Options.TfLiteRuntime ランタイム)

TF Lite ランタイム実装の取得元を指定します。

パラメータ
runtime

public Interpreter.Options setUseNNAPI (boolean useNNAPI)

演算の実行に NN API(使用可能な場合)を使用するかどうかを設定します。デフォルトは false(無効)です。

パラメータ
useNNAPI

public Interpreter.Options setUseXNNPACK (boolean useXNNPACK)

CPU カーネルの最適化セット(XNNPACK で指定)を有効または無効にします。デフォルトで有効。

パラメータ
useXNNPACK