使用 Python 的 Linux 裝置快速入門導覽課程

搭配 Python 使用 LiteRT 非常適合採用 Linux 的嵌入式裝置 例如 Raspberry Pi搭載 Edge TPU 的珊瑚紅裝置 諸如此類

本頁說明如何開始在 我們稍後會說明您只需要一個已轉換為 TensorFlow 的 TensorFlow 模型 精簡模式。(如果目前沒有轉換模型,您可以 模型建立實驗)。

關於 LiteRT 執行階段套件

如要快速開始使用 Python 執行 LiteRT 模型,請安裝 而非所有 TensorFlow 套件三 呼叫這個簡化的 Python 套件 tflite_runtime

tflite_runtime 套件是完整 tensorflow 的小數。 套件,並加入執行推論所需的最低程式碼 LiteRT 主要是 Interpreter敬上 Python 類別。這個小型套件非常適合您執行所有工作時 .tflite 模型,可避免浪費磁碟空間。

安裝 Python 適用的 LiteRT

您可以使用 pip 在 Linux 上安裝:

python3 -m pip install tflite-runtime

支援的平台

tflite-runtime Python 輪 平台:

  • Linux armv7l (例如 Raspberry Pi 2、3、4 和 Zero 2 執行 Raspberry Pi OS)。 32 位元)
  • Linux aarch64 (例如 Raspberry Pi 3、4 執行 Debian ARM64)
  • Linux x86_64

如要在其他平台上執行 LiteRT 模型,請採取以下任一做法: 使用完整的 TensorFlow 套件 從來源建構 tflite-runtime 套件

如果您將 TensorFlow 與 Coral Edge TPU 搭配使用, 請改為參閱適用的珊瑚紅設定說明文件

使用 tflite_runtime 執行推論

現在,您不必從 tensorflow 模組匯入 Interpreter,您需要 從 tflite_runtime 匯入

例如,在您安裝上述套件之後,請複製並執行 label_image.py敬上 檔案。這項作業 (可能) 失敗,因為您沒有 tensorflow 程式庫 已安裝。如要修正此問題,請編輯檔案中的這一行:

import tensorflow as tf

因此會改為讀取:

import tflite_runtime.interpreter as tflite

接著將這一行:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

此類別為:

interpreter = tflite.Interpreter(model_path=args.model_file)

現在再次執行 label_image.py。大功告成!您正在執行 LiteRT 我們來看評估分類模型成效時 的喚回度和精確度指標

瞭解詳情