TensorFlow Lite は LiteRT になりました。LiteRT は、Google の高性能オンデバイス AI の主要なランタイムです。既存の TensorFlow Lite パッケージは引き続き機能しますが、今後の機能アップデートとパフォーマンスの強化はすべて LiteRT 専用となります。LiteRT は TensorFlow Lite インタープリタ API を完全にサポートしているため、移行にはパッケージ名の更新のみが必要で、ロジックの変更は必要ありません。
パッケージ名の変更については、特定のプラットフォームの次の移行ガイドをご覧ください。
Android で移行する
Tensorflow Lite を使用する Android アプリケーションを移行するには、依存関係を org.tensorflow:tensorflow-lite から com.google.ai.edge.litert に置き換えます。LiteRT Maven リポジトリには、次のパッケージが含まれています。
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
この変更は、build.gradle の依存関係で行うことができます。
dependencies {
...
implementation `com.google.ai.edge.litert:litert:2.1.0`
}
Play 開発者サービス
Play 開発者サービス ランタイムの LiteRT は、引き続き play-services-tflite 依存関係を使用します。アプリですでに TensorFlow Lite で Play 開発者サービス ランタイムを使用している場合は、コードを変更する必要はありません。
Play サービスで LiteRT を使用するには、build.gradle の依存関係に以下を追加します。
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Python を使用して移行する
Tensorflow Lite を使用して Python コードを移行するには、PIP パッケージを tflite-runtime から ai-edge-litert に置き換えます。
PIP を使用して LiteRT をインストールします。
$ python3 -m pip install ai-edge-litert
次のコードで LiteRT をインポートします。
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
その他のライブラリ
iOS 向けの Swift SDK と Objective-C SDK、C++ SDK、Task Library、Model Maker ライブラリは、引き続き TensorFlow Lite パッケージに存在します。これらの SDK またはライブラリを使用するアプリケーションは、LiteRT に移行しないでください。