Die Verwendung von TensorFlow Lite mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi und Coral-Geräte mit Edge TPU.
Auf dieser Seite wird beschrieben, wie Sie TensorFlow Lite-Modelle in nur wenigen Minuten mit Python ausführen können. Sie benötigen lediglich ein in TensorFlow Lite konvertiertes TensorFlow-Modell. Wenn Sie noch kein Modell konvertiert haben, können Sie mit dem Modell aus dem unten verlinkten Beispiel experimentieren.
Informationen zum TensorFlow Lite-Laufzeitpaket
Wenn Sie TensorFlow Lite-Modelle schnell mit Python ausführen möchten, können Sie nur den TensorFlow Lite-Interpreter installieren und nicht alle TensorFlow-Pakete. Dieses vereinfachte Python-Paket wird als tflite_runtime
bezeichnet.
Das Paket tflite_runtime
ist ein Bruchteil der Größe des vollständigen tensorflow
-Pakets und enthält den absoluten Mindestcode, der zum Ausführen von Inferenzen mit TensorFlow Lite erforderlich ist – hauptsächlich die Python-Klasse Interpreter
. Dieses kleine Paket ist ideal, wenn Sie nur .tflite
-Modelle ausführen und keinen Speicherplatz mehr mit der großen TensorFlow-Bibliothek verschwenden möchten.
TensorFlow Lite für Python installieren
Sie können unter Linux mit „pip“ installieren:
python3 -m pip install tflite-runtime
Unterstützte Plattformen
Die tflite-runtime
-Python-Räder sind vorgefertigt und für die folgenden Plattformen verfügbar:
- Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS 32-Bit)
- Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
- Linux x86_64
Wenn Sie TensorFlow Lite-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oder das tflite-runtime-Paket aus der Quelle erstellen.
Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, folgen Sie stattdessen der entsprechenden Dokumentation zur Coral Edge-TPU.
Inferenz mit tflite_runtime ausführen
Anstatt Interpreter
aus dem tensorflow
-Modul zu importieren, müssen Sie es jetzt aus tflite_runtime
importieren.
Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise die Datei label_image.py
und führen Sie sie aus. Der Vorgang wird (wahrscheinlich) fehlschlagen, weil die tensorflow
-Bibliothek nicht installiert ist. Bearbeiten Sie die folgende Zeile der Datei, um das Problem zu beheben:
import tensorflow as tf
Stattdessen lautet sie:
import tflite_runtime.interpreter as tflite
Ändern Sie dann diese Zeile:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Also lautet sie:
interpreter = tflite.Interpreter(model_path=args.model_file)
Führen Sie label_image.py
jetzt noch einmal aus. Fertig! Sie führen jetzt TensorFlow Lite-Modelle aus.
Weitere Informationen
Weitere Informationen zur
Interpreter
API finden Sie unter Modell in Python laden und ausführen.Wenn Sie einen Raspberry Pi haben, sehen Sie sich eine Videoreihe zur Ausführung der Objekterkennung auf Raspberry Pi mit TensorFlow Lite an.
Wenn Sie einen Coral ML-Beschleuniger verwenden, sehen Sie sich die Coral-Beispiele auf GitHub an.
Informationen zum Konvertieren anderer TensorFlow-Modelle in TensorFlow Lite finden Sie unter TensorFlow Lite Converter.
Wenn Sie ein
tflite_runtime
-Wheel erstellen möchten, lesen Sie Python Wheel-Paket für TensorFlow Lite erstellen.