LiteRT-Inferenz mit Metadaten

Das Ableiten von Modellen mit Metadaten ein paar Zeilen Code schreiben. LiteRT-Metadaten enthalten eine ausführliche Beschreibung was das Modell tut und wie es verwendet wird. Damit können Code-Generatoren automatisch den Inferenzcode für Sie generieren, beispielsweise mithilfe der Android- Studio ML-Bindungsfunktion oder LiteRT Android-Codegenerator Es kann auch verwendet werden, um Ihre benutzerdefinierte Inferenzpipeline konfigurieren.

Tools und Bibliotheken

LiteRT bietet verschiedene Tools und Bibliotheken für wie folgt definiert werden:

Modellschnittstelle mit Android-Codegeneratoren generieren

Es gibt zwei Möglichkeiten, den erforderlichen Android-Wrapper-Code automatisch zu generieren. für LiteRT-Modell mit Metadaten:

  1. Android Studio ML-Modellbindung ist verfügbar in Android Studio nutzen, um LiteRT-Modelle über eine grafische . Android Studio konfiguriert automatisch die Einstellungen für Projekt erstellen und Wrapper-Klassen basierend auf den Modellmetadaten generieren.

  2. Der LiteRT Code Generator ist eine ausführbare Datei, die Modellschnittstelle automatisch basierend auf den Metadaten generiert. Aktuell unterstützt Android mit Java. Dank des Wrapper-Codes ist keine Interaktion erforderlich direkt mit ByteBuffer. Stattdessen können Entwickelnde mit dem LiteRT-Modell mit typisierten Objekten wie Bitmap und Rect. Android Studio-Nutzer können auch über Android Studio ML-Bindung.

Benutzerdefinierte Inferenzpipelines mit der LiteRT Support Library erstellen

Die LiteRT Support Library ist eine plattformübergreifende Bibliothek. mit dem Sie die Modellschnittstelle anpassen und Inferenzpipelines erstellen können. Es enthält verschiedene Util-Methoden und Datenstrukturen für Vorher-Nachher-Vergleiche und Datenkonvertierung. Er ist außerdem so konzipiert, dass er dem Verhalten TensorFlow-Module wie TF.Image und TF.Text, die für Konsistenz vom Training bis zur Ableitung.

Vortrainierte Modelle mit Metadaten untersuchen

Kaggle-Modelle ansehen nach Laden Sie vortrainierte Modelle mit Metadaten für Vision- und Textaufgaben herunter. Ebenfalls verschiedene Optionen zur Visualisierung der Metadaten.

GitHub-Repository für LiteRT-Support

LiteRT Support GitHub aufrufen Repository für weitere Beispiele und Quelle. Code.