オンデバイス AI 向けの Google の高性能ランタイムのすべての新しい開発は、LiteRT でのみ行われます。TensorFlow Lite パッケージを使用するアプリは引き続き機能しますが、すべての新しいアップデートは LiteRT パッケージにのみ含まれます。LiteRT API には TF Lite API と同じメソッド名が含まれているため、LiteRT への移行で詳細なコード変更は必要ありません。
パッケージ名の変更については、特定のプラットフォームの次の移行ガイドをご覧ください。
Android で移行する
Tensorflow Lite を使用する Android アプリケーションを移行するには、依存関係を org.tensorflow:tensorflow-lite から com.google.ai.edge.litert に置き換えます。LiteRT Maven リポジトリには、次のパッケージが含まれています。
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
この変更は、build.gradle の依存関係で行うことができます。
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.4.1`
}
Play 開発者サービス
Play 開発者サービス ランタイムの LiteRT は、引き続き play-services-tflite 依存関係を使用します。アプリですでに TensorFlow Lite で Play 開発者サービス ランタイムを使用している場合は、コードを変更する必要はありません。
Play サービスで LiteRT を使用するには、build.gradle の依存関係に以下を追加します。
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Python を使用して移行する
Tensorflow Lite を使用して Python コードを移行するには、PIP パッケージを tflite-runtime から ai-edge-litert に置き換えます。
PIP を使用して LiteRT をインストールします。
$ python3 -m pip install ai-edge-litert
次のコードで LiteRT をインポートします。
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
その他のライブラリ
iOS 用の Swift と Objective-C の SDK、C++ SDK、Task ライブラリ、Model Maker ライブラリは、TensorFlow Lite API に引き続き存在します。これらの SDK またはライブラリを使用するアプリは、LiteRT に移行しないでください。