Die Verwendung von LiteRT mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi und Coral-Geräte mit Edge TPU und vielen anderen.
Auf dieser Seite erfahren Sie, wie Sie LiteRT-Modelle mit Python in nur wenige Minuten. Sie brauchen nur ein in TensorFlow konvertiertes TensorFlow-Modell Lite Wenn Sie noch kein Modell konvertiert haben, mit dem Modell aus dem unten verlinkten Beispiel testen.)
Informationen zum LiteRT-Laufzeitpaket
Um schnell mit der Ausführung von LiteRT-Modellen mit Python zu beginnen, können Sie
den LiteRT-Interpreter statt
aller TensorFlow-Pakete. Mi.
vereinfachtes Python-Paket tflite_runtime nennen.
Das tflite_runtime-Paket ist nur ein Bruchteil der Größe des gesamten tensorflow-Objekts.
und enthält den Code, der für die Ausführung von Inferenzen mit
LiteRT – vor allem die
Interpreter
Python-Klasse. Dieses kleine Paket eignet sich ideal,
.tflite-Modelle und vermeiden Sie die Verschwendung von Speicherplatz mit der großen TensorFlow-Bibliothek.
LiteRT für Python installieren
Sie können die Installation unter Linux mit pip ausführen:
python3 -m pip install tflite-runtime
Unterstützte Plattformen
Die Python-Rollen für tflite-runtime sind vorgefertigt und werden für diese
Plattformen:
- Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS) 32-Bit)
- Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
- Linux x86_64
Wenn Sie LiteRT-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oder Erstellen Sie das tflite-runtime-Paket aus der Quelle.
Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, Folgen Sie stattdessen der entsprechenden Dokumentation zur Coral-Einrichtung.
Inferenz mit tflite_runtime ausführen
Anstatt Interpreter aus dem Modul tensorflow zu importieren, müssen Sie
aus tflite_runtime importieren.
Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise den
label_image.py
-Datei. Sie wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow-Bibliothek nicht haben
installiert haben. Um das Problem zu beheben, bearbeiten Sie diese Zeile in der Datei:
import tensorflow as tf
Also lautet der Text stattdessen:
import tflite_runtime.interpreter as tflite
Und dann ändern Sie diese Zeile:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Also lautet der Text:
interpreter = tflite.Interpreter(model_path=args.model_file)
Führen Sie jetzt label_image.py noch einmal aus. Fertig! Sie führen jetzt LiteRT aus
Modelle.
Weitere Informationen
- Weitere Informationen zur - InterpreterAPI finden Sie unter Modell in Python laden und ausführen
- Wenn Sie einen Raspberry Pi haben, können Sie sich diese Videoreihe ansehen. zur Ausführung der Objekterkennung auf Raspberry Pi mithilfe von LiteRT. 
- Wenn Sie einen Coral ML-Beschleuniger verwenden, sehen Sie sich die Beispiele für Korallen auf GitHub 
- Informationen zum Konvertieren anderer TensorFlow-Modelle in LiteRT finden Sie in den LiteRT Converter verfügbar. 
- Wenn Sie ein - tflite_runtime-Rad bauen möchten, lesen Sie Build LiteRT Python Wheel Package