Krótkie wprowadzenie dla urządzeń z systemem Linux korzystających z Pythona

Używanie LiteRT z Pythonem świetnie się sprawdza na urządzeniach z systemem Linux, takie jak Raspberry Pi, Urządzenia Coral z Edge TPU i wielu innych.

Na tej stronie dowiesz się, jak zacząć uruchamiać modele LiteRT w języku Python tylko kilka minut. Potrzebny jest tylko model TensorFlow przekonwertowany na TensorFlow uproszczony. (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz eksperymentu za pomocą modelu podanego w przykładzie podanym poniżej).

Informacje o pakiecie środowiska wykonawczego LiteRT

Aby szybko zacząć wykonywać modele LiteRT w Pythonie, możesz zainstalować tylko interpretera LiteRT, a nie wszystkich pakietów TensorFlow. Śr ten uproszczony pakiet Pythona tflite_runtime.

Pakiet tflite_runtime to ułamek rozmiaru pełnego pakietu tensorflow i zawiera minimalne minimalny kod wymagany do uruchamiania wnioskowania z LiteRT – głównie Interpreter. klasą Pythona. Ten niewielki pakiet jest idealny, gdy chcesz tylko wykonać .tflite i unikaj marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.

Zainstaluj LiteRT dla Pythona

Możesz zainstalować aplikację w Linuksie przy użyciu pip:

python3 -m pip install tflite-runtime

Obsługiwane platformy

Koła Pythona tflite-runtime są gotowe i dostarczane do tych platformy:

  • Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z systemem Raspberry Pi OS 32-bitowa)
  • Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
  • Linux x86_64

Jeśli chcesz uruchamiać modele LiteRT na innych platformach, użyj pełnego pakietu TensorFlow; skonfiguruj pakiet tflite-runtime ze źródła.

Jeśli używasz TensorFlow z Coral Edge TPU, postępuj zgodnie z odpowiednią dokumentacją konfiguracji Coral.

Przeprowadź wnioskowanie za pomocą tflite_runtime

Zamiast importować plik Interpreter z modułu tensorflow, musisz: zaimportuj je z usługi tflite_runtime.

Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom label_image.py . Zapewne nie zadziała, ponieważ nie masz biblioteki tensorflow Zainstalowano. Aby rozwiązać ten problem, zmodyfikuj ten wiersz pliku:

import tensorflow as tf

Zamiast tego wygląda to tak:

import tflite_runtime.interpreter as tflite

Następnie zmień ten wiersz:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Tak więc wygląda to:

interpreter = tflite.Interpreter(model_path=args.model_file)

Teraz ponownie uruchom polecenie label_image.py. Znakomicie. Wykonujesz LiteRT modeli ML.

Więcej informacji