Korzystanie z TensorFlow Lite w Pythonie doskonale nadaje się do osadzonych urządzeń z systemem Linux, takich jak Raspberry Pi czy Coral urządzenia z Edge TPU.
Na tej stronie pokazujemy, jak w kilka minut uruchomić modele TensorFlow Lite za pomocą Pythona. Potrzebujesz tylko modelu TensorFlow przekonwertowanego na TensorFlow Lite. Jeśli nie masz jeszcze przekonwertowanego modelu, możesz eksperymentować z modelem podanym w linku poniżej.
Informacje o pakiecie środowiska wykonawczego TensorFlow Lite
Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite w Pythonie, możesz zainstalować tylko interpreter TensorFlow Lite zamiast wszystkich pakietów TensorFlow. Nazywamy ten uproszczony pakiet Pythona tflite_runtime
.
Pakiet tflite_runtime
jest ułamkiem rozmiaru pełnego pakietu tensorflow
i zawiera minimalny kod wymagany do uruchamiania wnioskowania za pomocą TensorFlow Lite – głównie klasy Interpreter
Pythona. Ten mały pakiet jest idealny, gdy chcesz tylko uruchamiać modele .tflite
i nie marnować miejsca na dysku dzięki dużej bibliotece TensorFlow.
Zainstaluj TensorFlow Lite dla Pythona
Aby zainstalować w Linuksie, użyj pip:
python3 -m pip install tflite-runtime
Obsługiwane platformy
Koła Pythona tflite-runtime
są gotowe i udostępnione dla tych platform:
- Linux Armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z systemem Raspberry Pi OS 32-bitowy)
- Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
- Linux x86_64
Jeśli chcesz uruchamiać modele TensorFlow Lite na innych platformach, skorzystaj z pełnego pakietu TensorFlow lub utwórz pakiet tflite-runtime ze źródła.
Jeśli używasz TensorFlow z Coral Edge TPU, zapoznaj się z odpowiednią dokumentacją konfiguracji Coral.
Uruchamianie wnioskowania przy użyciu tflite_runtime
Zamiast importować plik Interpreter
z modułu tensorflow
, musisz teraz zaimportować go z narzędzia tflite_runtime
.
Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py
. Prawdopodobnie spowoduje to błąd, ponieważ nie masz zainstalowanej biblioteki tensorflow
. Aby rozwiązać ten problem, zmodyfikuj ten wiersz w pliku:
import tensorflow as tf
Zamiast tego brzmi tak:
import tflite_runtime.interpreter as tflite
A potem zmień ten wiersz:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Tak więc brzmi:
interpreter = tflite.Interpreter(model_path=args.model_file)
Teraz uruchom ponownie polecenie label_image.py
. Znakomicie. Teraz wykonujesz modele TensorFlow Lite.
Więcej informacji
Więcej informacji o interfejsie
Interpreter
API znajdziesz w artykule Wczytywanie i uruchamianie modelu w Pythonie.Jeśli masz Raspberry Pi, obejrzyj serię filmów o uruchamianiu wykrywania obiektów na Raspberry Pi za pomocą TensorFlow Lite.
Jeśli używasz akceleratora Coral ML, zapoznaj się z przykładami z serii Coral na GitHubie.
Aby przekonwertować inne modele TensorFlow na TensorFlow Lite, poczytaj o TensorFlow Lite Converter.
Jeśli chcesz utworzyć koło
tflite_runtime
, przeczytaj informacje na temat tworzenia pakietu kół w Pythonie TensorFlow Lite