Kurzanleitung für Linux-basierte Geräte mit Python

Die Verwendung von LiteRT mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi und Coral-Geräte mit Edge TPU und vielen anderen.

Auf dieser Seite erfahren Sie, wie Sie LiteRT-Modelle mit Python in nur wenige Minuten. Sie brauchen nur ein in TensorFlow konvertiertes TensorFlow-Modell Lite Wenn Sie noch kein Modell konvertiert haben, mit dem Modell aus dem unten verlinkten Beispiel testen.)

Informationen zum LiteRT-Laufzeitpaket

Um schnell mit der Ausführung von LiteRT-Modellen mit Python zu beginnen, können Sie den LiteRT-Interpreter statt aller TensorFlow-Pakete. Mi. vereinfachtes Python-Paket tflite_runtime nennen.

Das tflite_runtime-Paket ist nur ein Bruchteil der Größe des gesamten tensorflow-Objekts. und enthält den Code, der für die Ausführung von Inferenzen mit LiteRT – vor allem die Interpreter Python-Klasse. Dieses kleine Paket eignet sich ideal, .tflite-Modelle und vermeiden Sie die Verschwendung von Speicherplatz mit der großen TensorFlow-Bibliothek.

LiteRT für Python installieren

Sie können die Installation unter Linux mit pip ausführen:

python3 -m pip install tflite-runtime

Unterstützte Plattformen

Die Python-Rollen für tflite-runtime sind vorgefertigt und werden für diese Plattformen:

  • Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS) 32-Bit)
  • Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
  • Linux x86_64

Wenn Sie LiteRT-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oder Erstellen Sie das tflite-runtime-Paket aus der Quelle.

Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, Folgen Sie stattdessen der entsprechenden Dokumentation zur Coral-Einrichtung.

Inferenz mit tflite_runtime ausführen

Anstatt Interpreter aus dem Modul tensorflow zu importieren, müssen Sie aus tflite_runtime importieren.

Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise den label_image.py -Datei. Sie wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow-Bibliothek nicht haben installiert haben. Um das Problem zu beheben, bearbeiten Sie diese Zeile in der Datei:

import tensorflow as tf

Also lautet der Text stattdessen:

import tflite_runtime.interpreter as tflite

Und dann ändern Sie diese Zeile:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Also lautet der Text:

interpreter = tflite.Interpreter(model_path=args.model_file)

Führen Sie jetzt label_image.py noch einmal aus. Fertig! Sie führen jetzt LiteRT aus Modelle.

Weitere Informationen