Python での LiteRT の使用は、Linux、 Raspberry Pi や Edge TPU を搭載した Coral デバイス、 多岐にわたります。
このページでは、Python で LiteRT モデルの実行を開始する方法を、 説明します。必要なのは TensorFlow モデルをTensorFlow に変換すること Lite。(モデルをまだ変換していない場合は、 下のリンク先の例に示されているモデルを使ってテストしてください)。
LiteRT ランタイム パッケージについて
Python で LiteRT モデルの実行をすぐに開始するには、
すべての TensorFlow パッケージではなく、LiteRT インタープリタのみを使用します。水
この簡素化された Python パッケージ tflite_runtime
という名前を付けます。
tflite_runtime
パッケージは、完全な tensorflow
のサイズの比率
含まれており、Google Cloud で推論を実行するのに必要な最低限のコードが
LiteRT - 主に
Interpreter
使用します。この小さなパッケージは、
.tflite
モデルを作成し、大規模な TensorFlow ライブラリを使用してディスク容量を無駄にしないようにします。
Python 用 LiteRT をインストールする
pip を使用して Linux にインストールできます。
python3 -m pip install tflite-runtime
対応プラットフォーム
tflite-runtime
Python ホイールは事前構築済みで、以下の用途向けに提供されています。
プラットフォーム:
- Linux armv7l(Raspberry Pi OS を実行している Raspberry Pi 2、3、4、Zero 2 など) 32 ビット)
- Linux aarch64(例: Debian ARM64 を実行している Raspberry Pi 3、4)
- Linux x86_64
他のプラットフォームで LiteRT モデルを実行する場合は、次のいずれかを行う必要があります。 完全な TensorFlow パッケージを使用する ソースから tflite-runtime パッケージをビルドします。
Coral Edge TPU で TensorFlow を使用する場合は、 該当する Coral の設定に関するドキュメントをご覧ください。
tflite_runtime を使用して推論を実行する
tensorflow
モジュールから Interpreter
をインポートする代わりに、次のことを行う必要があります。
tflite_runtime
からインポートします。
たとえば、上記のパッケージをインストールした後、次のコマンドをコピーして実行します。
label_image.py
表示されます。tensorflow
ライブラリがないため、(おそらく)失敗します
インストールされています。これを修正するには、ファイルの次の行を編集します。
import tensorflow as tf
そのため、代わりに次のように記述します。
import tflite_runtime.interpreter as tflite
次の行を変更します。
interpreter = tf.lite.Interpreter(model_path=args.model_file)
次のように表示されます。
interpreter = tflite.Interpreter(model_path=args.model_file)
ここで、label_image.py
を再度実行します。これで、LiteRT を実行しています
構築できます
その他の情報
Interpreter
API について詳しくは、以下をご覧ください。 Python でモデルを読み込んで実行する。Raspberry Pi をお持ちの場合は、動画シリーズをご覧ください。 LiteRT を使用して Raspberry Pi でオブジェクト検出を実行する方法についてご覧ください。
Coral ML アクセラレータを使用している場合は、 GitHub の Coral の例。
他の TensorFlow モデルを LiteRT に変換するには、 LiteRT コンバータ。
tflite_runtime
ホイールを作成する場合は、以下をご覧ください。 LiteRT Python Wheel パッケージをビルドする