LiteRT-Inferenz mit Metadaten

Das Ableiten von Modellen mit Metadaten ist mit nur wenigen Codezeilen möglich. LiteRT-Metadaten enthalten eine ausführliche Beschreibung der Funktionsweise des Modells und der Verwendung des Modells. Damit können Code-Generatoren den Inferenzcode automatisch für Sie generieren, z. B. mit der Android Studio ML Binding-Funktion oder dem LiteRT Android-Code-Generator. Sie kann auch zum Konfigurieren Ihrer benutzerdefinierten Inferenzpipeline verwendet werden.

Tools und Bibliotheken

LiteRT bietet verschiedene Tools und Bibliotheken, um unterschiedliche Bereitstellungsanforderungen zu erfüllen:

Modellschnittstelle mit Android-Codegeneratoren generieren

Es gibt zwei Möglichkeiten, den erforderlichen Android-Wrapper-Code für das LiteRT-Modell mit Metadaten automatisch zu generieren:

  1. Android Studio ML Model Binding ist ein Tool, das in Android Studio verfügbar ist, um LiteRT-Modelle über eine grafische Benutzeroberfläche zu importieren. Android Studio konfiguriert automatisch die Einstellungen für das Projekt und generiert Wrapper-Klassen basierend auf den Modellmetadaten.

  2. Der LiteRT Code Generator ist eine ausführbare Datei, die die Modellschnittstelle automatisch anhand der Metadaten generiert. Derzeit wird Android mit Java unterstützt. Durch den Wrapper-Code ist keine direkte Interaktion mit ByteBuffer erforderlich. Stattdessen können Entwickler mit dem LiteRT-Modell mit typisierten Objekten wie Bitmap und Rect interagieren. Android Studio-Nutzer können auch über Android Studio ML Binding auf die Funktion zur Code-Generierung zugreifen.

Benutzerdefinierte Inferenzpipelines mit der LiteRT-Supportbibliothek erstellen

Die LiteRT Support Library ist eine plattformübergreifende Bibliothek, mit der Sie die Modellschnittstelle anpassen und Inferenzpipelines erstellen können. Sie enthält verschiedene Hilfsmethoden und Datenstrukturen für die Vor- und Nachbearbeitung sowie die Datenkonvertierung. Außerdem ist sie so konzipiert, dass sie dem Verhalten von TensorFlow-Modulen wie TF.Image und TF.Text entspricht, um die Konsistenz zwischen Training und Inferenz zu gewährleisten.

Vortrainierte Modelle mit Metadaten untersuchen

Kaggle-Modelle durchsuchen, um vortrainierte Modelle mit Metadaten für Bild- und Textaufgaben herunterzuladen. Weitere Optionen zum Visualisieren der Metadaten

GitHub-Repository für LiteRT-Support

Weitere Beispiele und Quellcode finden Sie im GitHub-Repository für LiteRT-Support.