Die Verwendung von LiteRT mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi und Coral-Geräte mit Edge TPU und vielen anderen.
Auf dieser Seite erfahren Sie, wie Sie LiteRT-Modelle mit Python in nur wenige Minuten. Sie brauchen nur ein in TensorFlow konvertiertes TensorFlow-Modell Lite Wenn Sie noch kein Modell konvertiert haben, mit dem Modell aus dem unten verlinkten Beispiel testen.)
Informationen zum LiteRT-Laufzeitpaket
Um schnell mit der Ausführung von LiteRT-Modellen mit Python zu beginnen, können Sie
den LiteRT-Interpreter statt
aller TensorFlow-Pakete. Mi.
vereinfachtes Python-Paket tflite_runtime
nennen.
Das tflite_runtime
-Paket ist nur ein Bruchteil der Größe des gesamten tensorflow
-Objekts.
und enthält den Code, der für die Ausführung von Inferenzen mit
LiteRT – vor allem die
Interpreter
Python-Klasse. Dieses kleine Paket eignet sich ideal,
.tflite
-Modelle und vermeiden Sie die Verschwendung von Speicherplatz mit der großen TensorFlow-Bibliothek.
LiteRT für Python installieren
Sie können die Installation unter Linux mit pip ausführen:
python3 -m pip install tflite-runtime
Unterstützte Plattformen
Die Python-Rollen für tflite-runtime
sind vorgefertigt und werden für diese
Plattformen:
- Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS) 32-Bit)
- Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
- Linux x86_64
Wenn Sie LiteRT-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oder Erstellen Sie das tflite-runtime-Paket aus der Quelle.
Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, Folgen Sie stattdessen der entsprechenden Dokumentation zur Coral-Einrichtung.
Inferenz mit tflite_runtime ausführen
Anstatt Interpreter
aus dem Modul tensorflow
zu importieren, müssen Sie
aus tflite_runtime
importieren.
Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise den
label_image.py
-Datei. Sie wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow
-Bibliothek nicht haben
installiert haben. Um das Problem zu beheben, bearbeiten Sie diese Zeile in der Datei:
import tensorflow as tf
Also lautet der Text stattdessen:
import tflite_runtime.interpreter as tflite
Und dann ändern Sie diese Zeile:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Also lautet der Text:
interpreter = tflite.Interpreter(model_path=args.model_file)
Führen Sie jetzt label_image.py
noch einmal aus. Fertig! Sie führen jetzt LiteRT aus
Modelle.
Weitere Informationen
Weitere Informationen zur
Interpreter
API finden Sie unter Modell in Python laden und ausführenWenn Sie einen Raspberry Pi haben, können Sie sich diese Videoreihe ansehen. zur Ausführung der Objekterkennung auf Raspberry Pi mithilfe von LiteRT.
Wenn Sie einen Coral ML-Beschleuniger verwenden, sehen Sie sich die Beispiele für Korallen auf GitHub
Informationen zum Konvertieren anderer TensorFlow-Modelle in LiteRT finden Sie in den LiteRT Converter verfügbar.
Wenn Sie ein
tflite_runtime
-Rad bauen möchten, lesen Sie Build LiteRT Python Wheel Package