Das Ableiten von Modellen mit Metadaten ist mit nur wenigen Codezeilen möglich. LiteRT-Metadaten enthalten eine ausführliche Beschreibung der Funktionsweise des Modells und der Verwendung des Modells. Damit können Code-Generatoren den Inferenzcode automatisch für Sie generieren, z. B. mit der Android Studio ML Binding-Funktion oder dem LiteRT Android-Code-Generator. Sie kann auch zum Konfigurieren Ihrer benutzerdefinierten Inferenzpipeline verwendet werden.
Tools und Bibliotheken
LiteRT bietet verschiedene Tools und Bibliotheken, um unterschiedliche Bereitstellungsanforderungen zu erfüllen:
Modellschnittstelle mit Android-Codegeneratoren generieren
Es gibt zwei Möglichkeiten, den erforderlichen Android-Wrapper-Code für das LiteRT-Modell mit Metadaten automatisch zu generieren:
Android Studio ML Model Binding ist ein Tool, das in Android Studio verfügbar ist, um LiteRT-Modelle über eine grafische Benutzeroberfläche zu importieren. Android Studio konfiguriert automatisch die Einstellungen für das Projekt und generiert Wrapper-Klassen basierend auf den Modellmetadaten.
Der LiteRT Code Generator ist eine ausführbare Datei, die die Modellschnittstelle automatisch anhand der Metadaten generiert. Derzeit wird Android mit Java unterstützt. Durch den Wrapper-Code ist keine direkte Interaktion mit
ByteBuffererforderlich. Stattdessen können Entwickler mit dem LiteRT-Modell mit typisierten Objekten wieBitmapundRectinteragieren. Android Studio-Nutzer können auch über Android Studio ML Binding auf die Funktion zur Code-Generierung zugreifen.
Benutzerdefinierte Inferenzpipelines mit der LiteRT-Supportbibliothek erstellen
Die LiteRT Support Library ist eine plattformübergreifende Bibliothek, mit der Sie die Modellschnittstelle anpassen und Inferenzpipelines erstellen können. Sie enthält verschiedene Hilfsmethoden und Datenstrukturen für die Vor- und Nachbearbeitung sowie die Datenkonvertierung. Außerdem ist sie so konzipiert, dass sie dem Verhalten von TensorFlow-Modulen wie TF.Image und TF.Text entspricht, um die Konsistenz zwischen Training und Inferenz zu gewährleisten.
Vortrainierte Modelle mit Metadaten untersuchen
Kaggle-Modelle durchsuchen, um vortrainierte Modelle mit Metadaten für Bild- und Textaufgaben herunterzuladen. Weitere Optionen zum Visualisieren der Metadaten
GitHub-Repository für LiteRT-Support
Weitere Beispiele und Quellcode finden Sie im GitHub-Repository für LiteRT-Support.