搭配 Python 使用 LiteRT 非常適合採用 Linux 的嵌入式裝置 例如 Raspberry Pi 和 搭載 Edge TPU 的珊瑚紅裝置 諸如此類
本頁說明如何開始在 我們稍後會說明您只需要一個已轉換為 TensorFlow 的 TensorFlow 模型 精簡模式。(如果目前沒有轉換模型,您可以 模型建立實驗)。
關於 LiteRT 執行階段套件
如要快速開始使用 Python 執行 LiteRT 模型,請安裝
而非所有 TensorFlow 套件三
呼叫這個簡化的 Python 套件 tflite_runtime
。
tflite_runtime
套件是完整 tensorflow
的小數。
套件,並加入執行推論所需的最低程式碼
LiteRT 主要是
Interpreter
敬上
Python 類別。這個小型套件非常適合您執行所有工作時
.tflite
模型,可避免浪費磁碟空間。
安裝 Python 適用的 LiteRT
您可以使用 pip 在 Linux 上安裝:
python3 -m pip install tflite-runtime
支援的平台
tflite-runtime
Python 輪
平台:
- Linux armv7l (例如 Raspberry Pi 2、3、4 和 Zero 2 執行 Raspberry Pi OS)。 32 位元)
- Linux aarch64 (例如 Raspberry Pi 3、4 執行 Debian ARM64)
- Linux x86_64
如要在其他平台上執行 LiteRT 模型,請採取以下任一做法: 使用完整的 TensorFlow 套件 從來源建構 tflite-runtime 套件。
如果您將 TensorFlow 與 Coral Edge TPU 搭配使用, 請改為參閱適用的珊瑚紅設定說明文件。
使用 tflite_runtime 執行推論
現在,您不必從 tensorflow
模組匯入 Interpreter
,您需要
從 tflite_runtime
匯入
例如,在您安裝上述套件之後,請複製並執行
label_image.py
敬上
檔案。這項作業 (可能) 失敗,因為您沒有 tensorflow
程式庫
已安裝。如要修正此問題,請編輯檔案中的這一行:
import tensorflow as tf
因此會改為讀取:
import tflite_runtime.interpreter as tflite
接著將這一行:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
此類別為:
interpreter = tflite.Interpreter(model_path=args.model_file)
現在再次執行 label_image.py
。大功告成!您正在執行 LiteRT
我們來看評估分類模型成效時
的喚回度和精確度指標
瞭解詳情
如要進一步瞭解
Interpreter
API,請參閱 在 Python 中載入並執行模型。如果你有 Raspberry Pi,請觀看系列影片 說明如何使用 LiteRT 在 Raspberry Pi 上執行物件偵測。
如果您使用的是 Coral ML 加速器,請參閱 GitHub 上的 Corral 範例。
如要將其他 TensorFlow 模型轉換為 LiteRT,請參閱 LiteRT 轉換器。
如要建立
tflite_runtime
輪子,請參閱 建構 LiteRT Python Wheel 套件