Używanie LiteRT z Pythonem świetnie się sprawdza na urządzeniach z systemem Linux, takie jak Raspberry Pi, Urządzenia Coral z Edge TPU i wielu innych.
Na tej stronie dowiesz się, jak zacząć uruchamiać modele LiteRT w języku Python tylko kilka minut. Potrzebny jest tylko model TensorFlow przekonwertowany na TensorFlow uproszczony. (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz eksperymentu za pomocą modelu podanego w przykładzie podanym poniżej).
Informacje o pakiecie środowiska wykonawczego LiteRT
Aby szybko zacząć wykonywać modele LiteRT w Pythonie, możesz zainstalować
tylko interpretera LiteRT, a nie wszystkich pakietów TensorFlow. Śr
ten uproszczony pakiet Pythona tflite_runtime
.
Pakiet tflite_runtime
to ułamek rozmiaru pełnego pakietu tensorflow
i zawiera minimalne minimalny kod wymagany do uruchamiania wnioskowania z
LiteRT – głównie
Interpreter
.
klasą Pythona. Ten niewielki pakiet jest idealny, gdy chcesz tylko wykonać
.tflite
i unikaj marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.
Zainstaluj LiteRT dla Pythona
Możesz zainstalować aplikację w Linuksie przy użyciu pip:
python3 -m pip install tflite-runtime
Obsługiwane platformy
Koła Pythona tflite-runtime
są gotowe i dostarczane do tych
platformy:
- Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z systemem Raspberry Pi OS 32-bitowa)
- Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
- Linux x86_64
Jeśli chcesz uruchamiać modele LiteRT na innych platformach, użyj pełnego pakietu TensorFlow; skonfiguruj pakiet tflite-runtime ze źródła.
Jeśli używasz TensorFlow z Coral Edge TPU, postępuj zgodnie z odpowiednią dokumentacją konfiguracji Coral.
Przeprowadź wnioskowanie za pomocą tflite_runtime
Zamiast importować plik Interpreter
z modułu tensorflow
, musisz:
zaimportuj je z usługi tflite_runtime
.
Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom
label_image.py
. Zapewne nie zadziała, ponieważ nie masz biblioteki tensorflow
Zainstalowano. Aby rozwiązać ten problem, zmodyfikuj ten wiersz pliku:
import tensorflow as tf
Zamiast tego wygląda to tak:
import tflite_runtime.interpreter as tflite
Następnie zmień ten wiersz:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Tak więc wygląda to:
interpreter = tflite.Interpreter(model_path=args.model_file)
Teraz ponownie uruchom polecenie label_image.py
. Znakomicie. Wykonujesz LiteRT
modeli ML.
Więcej informacji
Więcej informacji o interfejsie API
Interpreter
znajdziesz na stronie Wczytaj i uruchom model w Pythonie.Jeśli masz Raspberry Pi, obejrzyj serię filmów o tym, jak uruchamiać wykrywanie obiektów w Raspberry Pi za pomocą LiteRT.
Jeśli używasz akceleratora Coral ML, przeczytaj Przykłady koralowców w GitHubie.
Aby przekonwertować inne modele TensorFlow na LiteRT, przeczytaj o Konwerter LiteRT
Jeśli chcesz zbudować koło
tflite_runtime
, przeczytaj Tworzenie pakietu LiteRT Python Wheel