公共静态类 InterpreterApi.Options
已知的直接子类 |
用于控制运行时解释器行为的选项类。
嵌套类
枚举 | InterpreterApi.Options.TfLiteRuntime | 用于表示从何处获取 TensorFlow Lite 运行时实现的枚举。 |
公共构造函数
Options()
|
|
公共方法
InterpreterApi.Options | |
InterpreterApi.Options |
addDelegateFactory(DelegateFactory delegateFactory)
添加了一个
DelegateFactory ,系统将调用它,以便在解释器创建期间应用其创建的 Delegate 。 |
ValidatedAccelerationConfig |
getAccelerationConfig()
返回加速配置。
|
列表<DelegateFactory> |
getDelegateFactories()
返回通过
addDelegateFactory 注册的委托工厂的列表。 |
列表<委托> |
getDelegates()
返回要在解释器创建过程中应用的、并通过
addDelegate 注册的委托列表。 |
整型 |
getNumThreads()
返回要用于支持多线程的操作的线程数。
|
InterpreterApi.Options.TfLiteRuntime |
getRuntime()
返回从何处获取 TF Lite 运行时实现。
|
布尔值 |
getUseNNAPI()
返回是否使用 NN API(如果有)进行运算执行。
|
布尔值 | |
布尔值 |
isCancellable()
Advanced:返回是否可以取消解释器。
|
InterpreterApi.Options | |
InterpreterApi.Options |
setCancellable(布尔值允许)
高级:设置是否可以取消翻译员。
|
InterpreterApi.Options |
setNumThreads(int numThreads)
设置要用于支持多线程的操作的线程数。
|
InterpreterApi.Options | |
InterpreterApi.Options |
setUseNNAPI(布尔值 useNNAPI)
设置是否使用 NN API(如果有)进行运算。
|
InterpreterApi.Options |
setUseXNNPACK(布尔值 useXNNPACK)
启用或停用一组经过优化的 CPU 内核(由 XNNPACK 提供)。
|
继承的方法
公共构造函数
public Options ()
公共方法
public InterpreterApi.Options addDelegate (Delegate 代理)
添加了要在创建解释器期间应用的 Delegate
。
此处添加的委托会优先于通过 addDelegateFactory(DelegateFactory)
添加的 DelegateFactory
创建的任何委托。
请注意,Google Play 服务中的 TF Lite(请参阅 setRuntime(InterpreterApi.Options.TfLiteRuntime)
)不支持外部(开发者提供的)委托,在 Google Play 服务中使用 TF Lite 时,不允许在此处添加 ERROR(/NnApiDelegate)
以外的 Delegate
。
参数
delegate |
---|
public InterpreterApi.Options addDelegateFactory (DelegateFactory delegateFactory)
添加了 DelegateFactory
,系统将调用它,以便在解释器创建期间应用其创建的 Delegate
。
在此处添加的委托工厂中的委托会在使用 addDelegate(Delegate)
添加任何委托之后应用。
参数
delegateFactory |
---|
public int getNumThreads ()
返回要用于支持多线程的操作的线程数。
numThreads
应为 >= -1
。值为 0(或 1)将停用多线程处理。
默认值为 -1:使用的线程数将由实现定义并取决于平台。