Python を使用した Linux ベースのデバイス向けのクイックスタート

Python での LiteRT の使用は、Linux、 Raspberry PiEdge TPU を搭載した Coral デバイス、 多岐にわたります。

このページでは、Python で LiteRT モデルの実行を開始する方法を、 説明します。必要なのは TensorFlow モデルをTensorFlow に変換すること Lite。(モデルをまだ変換していない場合は、 下のリンク先の例に示されているモデルを使ってテストしてください)。

LiteRT ランタイム パッケージについて

Python で LiteRT モデルの実行をすぐに開始するには、 すべての TensorFlow パッケージではなく、LiteRT インタープリタのみを使用します。水 この簡素化された Python パッケージ tflite_runtime という名前を付けます。

tflite_runtime パッケージは、完全な tensorflow のサイズの比率 含まれており、Google Cloud で推論を実行するのに必要な最低限のコードが LiteRT - 主に Interpreter 使用します。この小さなパッケージは、 .tflite モデルを作成し、大規模な TensorFlow ライブラリを使用してディスク容量を無駄にしないようにします。

Python 用 LiteRT をインストールする

pip を使用して Linux にインストールできます。

python3 -m pip install tflite-runtime

対応プラットフォーム

tflite-runtime Python ホイールは事前構築済みで、以下の用途向けに提供されています。 プラットフォーム:

  • Linux armv7l(Raspberry Pi OS を実行している Raspberry Pi 2、3、4、Zero 2 など) 32 ビット)
  • Linux aarch64(例: Debian ARM64 を実行している Raspberry Pi 3、4)
  • Linux x86_64

他のプラットフォームで LiteRT モデルを実行する場合は、次のいずれかを行う必要があります。 完全な TensorFlow パッケージを使用する ソースから tflite-runtime パッケージをビルドします。

Coral Edge TPU で TensorFlow を使用する場合は、 該当する Coral の設定に関するドキュメントをご覧ください。

tflite_runtime を使用して推論を実行する

tensorflow モジュールから Interpreter をインポートする代わりに、次のことを行う必要があります。 tflite_runtime からインポートします。

たとえば、上記のパッケージをインストールした後、次のコマンドをコピーして実行します。 label_image.py 表示されます。tensorflow ライブラリがないため、(おそらく)失敗します インストールされています。これを修正するには、ファイルの次の行を編集します。

import tensorflow as tf

そのため、代わりに次のように記述します。

import tflite_runtime.interpreter as tflite

次の行を変更します。

interpreter = tf.lite.Interpreter(model_path=args.model_file)

次のように表示されます。

interpreter = tflite.Interpreter(model_path=args.model_file)

ここで、label_image.py を再度実行します。これで、LiteRT を実行しています 構築できます

その他の情報