针对设备端 AI 的 Google 高性能运行时的所有新开发都将 并只支持 LiteRT。使用 TensorFlow Lite 软件包的应用将 将继续运行,但所有新的更新将只包含在 LiteRT 中 软件包LiteRT API 包含的方法名称与 TF Lite API 相同,因此 迁移到 LiteRT 不需要对代码进行详细的更改。
如需更改软件包名称,请参阅以下迁移指南,了解 平台。
随 Android 迁移
如需使用 TensorFlow Lite 迁移 Android 应用,请将依赖项
从 org.tensorflow:tensorflow-lite
到 com.google.ai.edge.litert
。通过
LiteRT Maven 代码库
包含以下软件包:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
您可以在 build.gradle
依赖项中进行此项更改:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play 服务
Play 服务运行时中的 LiteRT 继续使用 play-services-tflite
依赖项。如果您的应用已在使用 Play 服务运行时
使用 TensorFlow Lite,您无需更改任何代码。
如需在 Play 服务中使用 LiteRT,请将以下内容添加到您的 build.gradle
依赖项:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
使用 Python 进行迁移
要使用 Tensorflow Lite 迁移 Python 代码,请将 PIP 软件包从
tflite-runtime
至 ai-edge-litert
。
安装支持 PIP 的 LiteRT:
$ python3 -m pip install ai-edge-litert
使用以下命令导入 LiteRT:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
其他库
适用于 iOS 的 Swift 和 Objective-C SDK、C++ SDK、Task 库和 Model Maker 继续存在于 TensorFlow Lite API 中。使用这些 API 的应用 SDK 或库不应迁移到 LiteRT。