Google 面向设备端 AI 的高性能运行时所有新开发项目都将仅在 LiteRT 上进行。使用 TensorFlow Lite 软件包的应用将继续正常运行,但所有新更新都只会包含在 LiteRT 软件包中。LiteRT API 包含与 TF Lite API 相同的方法名称,因此迁移到 LiteRT 不需要进行详细的代码更改。
如需了解软件包名称更改,请参阅以下针对特定平台的迁移指南。
使用 Android 迁移
如需迁移使用 TensorFlow Lite 的 Android 应用,请将依赖项从 org.tensorflow:tensorflow-lite 替换为 com.google.ai.edge.litert。LiteRT Maven 代码库包含以下软件包:
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
您可以在 build.gradle 依赖项中进行此项更改:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.4.1`
}
Play 服务
Play 服务运行时中的 LiteRT 继续使用 play-services-tflite 依赖项。如果您的应用已将 Play 服务运行时与 TensorFlow Lite 搭配使用,则无需进行任何代码更改。
如需在 Play 服务中使用 LiteRT,请将以下内容添加到 build.gradle 依赖项中:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
使用 Python 进行迁移
如需迁移使用 TensorFlow Lite 的 Python 代码,请将 PIP 软件包从 tflite-runtime 替换为 ai-edge-litert。
使用 PIP 安装 LiteRT:
$ python3 -m pip install ai-edge-litert
使用以下代码导入 LiteRT:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
其他库
适用于 iOS 的 Swift 和 Objective-C SDK、C++ SDK、Task 库和 Model Maker 库将继续存在于 TensorFlow Lite API 中。使用这些 SDK 或库的应用不应迁移到 LiteRT。