公共类
Model
TFLite 模型和 TFLite 解释器的封装容器类。
注意:一个 Model
一次只能保存 1 个 TFLite 模型,并且始终保留 TFLite 解释器实例来运行该模型。
嵌套类
类别 | Model.Builder |
此类已废弃。请使用 Model.createModel(Context, String, Options) 。
|
|
枚举 | Model.Device | 用于执行分类的运行时设备类型。 | |
类别 | Model.Options | 用于运行模型的选项。 |
公共方法
void |
close()
|
静态 模型 | |
静态 模型 | |
MappedByteBuffer |
getData()
返回内存映射的模型数据。
|
张量 |
getInputTensor(int inputIndex)
获取与提供的输入索引相关联的张量。
|
张量 |
getOutputTensor(int outputIndex)
获取与提供的输出索引相关联的张量。
|
整型 [] |
getOutputTensorShape(int outputIndex)
返回输出形状。
|
字符串 |
getPath()
返回存储在 Assets 中的模型文件的路径。
|
void |
继承的方法
公共方法
public void close ()
public static Model createModel (Context context, String modelPath, Model.Options options)
从资源加载模型,并使用指定选项初始化 TFLite 解释器。
参数
context | 应用上下文。 |
---|---|
modelPath | 模型文件的路径。 |
选项 | 用于运行模型的选项。 |
抛出
IOException | 如果在打开模型文件时出现任何异常,则会发生该错误。 |
---|
另请参阅
public static Model createModel (Context context, String modelPath)
从资源加载模型并初始化 TFLite 解释器。
默认选项为:(1) CPU 设备;(2) 一个线程。
参数
context | 应用上下文。 |
---|---|
modelPath | 模型文件的路径。 |
抛出
IOException | 如果在打开模型文件时出现任何异常,则会发生该错误。 |
---|
public Tensor getInputTensor (int inputIndex)
public Tensor getOutputTensor (int outputIndex)
public int[] getOutputTensorShape (int outputIndex)
public void run (Object[] 输入, Map<Integer, Object> 输出)
针对多个输入运行模型推断,并返回多个输出。
参数
输入 | 输入数据的数组。输入的顺序应与模型输入的顺序相同。每个输入可以是数组或多维数组,也可以是基元类型(包括 int、float、long 和 byte)的 ByteBuffer 。ByteBuffer 是传递大量输入数据的首选方式,而字符串类型需要使用(多维)数组输入路径。使用 ByteBuffer 时,其内容应保持不变,直到模型推断完成为止。 |
---|---|
输出 | 将输出索引映射到输出数据的多维数组或基元类型(包括 int、float、long 和 byte)的 ByteBuffer 的映射。它只需保留相应条目即可使用输出。
|