Google のオンデバイス AI 用高性能ランタイムに関するすべての新しい開発は、 LiteRT 限定です。TensorFlow Lite パッケージを使用するアプリは、 ただし、すべての新しいアップデートは LiteRT にのみ含まれる 提供します。LiteRT API には TF Lite API と同じメソッド名が含まれているため、 LiteRT への移行には、詳細なコード変更は必要ありません。
パッケージ名の変更については、以下の移行ガイドをご覧ください。 説明します。
Android で移行する
TensorFlow Lite を使用して Android アプリケーションを移行するには、依存関係を置き換えます
org.tensorflow:tensorflow-lite
~com.google.ai.edge.litert
。「
LiteRT Maven リポジトリ
次のパッケージが含まれています。
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
この変更は build.gradle
依存関係で行うことができます。
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play 開発者サービス
Play 開発者サービス ランタイムの LiteRT では引き続き play-services-tflite
が使用されます。
確認します。アプリですでに Play 開発者サービスのランタイムが
コードを変更する必要はありません。
Play 開発者サービスで LiteRT を使用するには、build.gradle
に次の行を追加します
:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
Python で移行する
TensorFlow Lite を使用して Python コードを移行するには、
tflite-runtime
から ai-edge-litert
に変更。
PIP を使用して LiteRT をインストールします。
$ python3 -m pip install ai-edge-litert
次のように LiteRT をインポートします。
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
その他のライブラリ
iOS、C++ SDK、タスク ライブラリ、Model Maker 用の Swift および Objective-C SDK ライブラリは TensorFlow Lite API に引き続き存在します。これらを使用するアプリケーション SDK またはライブラリは LiteRT に移行しないでください。