Kurzanleitung für Linux-basierte Geräte mit Python

Die Verwendung von TensorFlow Lite mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi und Coral-Geräte mit Edge TPU.

Auf dieser Seite wird beschrieben, wie Sie TensorFlow Lite-Modelle in nur wenigen Minuten mit Python ausführen können. Sie benötigen lediglich ein in TensorFlow Lite konvertiertes TensorFlow-Modell. Wenn Sie noch kein Modell konvertiert haben, können Sie mit dem Modell aus dem unten verlinkten Beispiel experimentieren.

Informationen zum TensorFlow Lite-Laufzeitpaket

Wenn Sie TensorFlow Lite-Modelle schnell mit Python ausführen möchten, können Sie nur den TensorFlow Lite-Interpreter installieren und nicht alle TensorFlow-Pakete. Dieses vereinfachte Python-Paket wird als tflite_runtime bezeichnet.

Das Paket tflite_runtime ist ein Bruchteil der Größe des vollständigen tensorflow-Pakets und enthält den absoluten Mindestcode, der zum Ausführen von Inferenzen mit TensorFlow Lite erforderlich ist – hauptsächlich die Python-Klasse Interpreter. Dieses kleine Paket ist ideal, wenn Sie nur .tflite-Modelle ausführen und keinen Speicherplatz mehr mit der großen TensorFlow-Bibliothek verschwenden möchten.

TensorFlow Lite für Python installieren

Sie können unter Linux mit „pip“ installieren:

python3 -m pip install tflite-runtime

Unterstützte Plattformen

Die tflite-runtime-Python-Räder sind vorgefertigt und für die folgenden Plattformen verfügbar:

  • Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS 32-Bit)
  • Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
  • Linux x86_64

Wenn Sie TensorFlow Lite-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oder das tflite-runtime-Paket aus der Quelle erstellen.

Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, folgen Sie stattdessen der entsprechenden Dokumentation zur Coral Edge-TPU.

Inferenz mit tflite_runtime ausführen

Anstatt Interpreter aus dem tensorflow-Modul zu importieren, müssen Sie es jetzt aus tflite_runtime importieren.

Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise die Datei label_image.py und führen Sie sie aus. Der Vorgang wird (wahrscheinlich) fehlschlagen, weil die tensorflow-Bibliothek nicht installiert ist. Bearbeiten Sie die folgende Zeile der Datei, um das Problem zu beheben:

import tensorflow as tf

Stattdessen lautet sie:

import tflite_runtime.interpreter as tflite

Ändern Sie dann diese Zeile:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Also lautet sie:

interpreter = tflite.Interpreter(model_path=args.model_file)

Führen Sie label_image.py jetzt noch einmal aus. Fertig! Sie führen jetzt TensorFlow Lite-Modelle aus.

Weitere Informationen