L'inférence de modèles avec des métadonnées peut être aussi simple que quelques lignes de code. Les métadonnées LiteRT contiennent une description détaillée de ce que fait le modèle et de la façon de l'utiliser. Il peut permettre aux générateurs de code de générer automatiquement le code d'inférence pour vous, par exemple en utilisant la fonctionnalité de liaison ML d'Android Studio ou le générateur de code LiteRT pour Android. Vous pouvez également l'utiliser pour configurer votre pipeline d'inférence personnalisé.
Outils et bibliothèques
LiteRT fournit différentes bibliothèques et outils pour répondre aux différents niveaux d'exigences de déploiement :
Générer une interface de modèle avec des générateurs de code Android
Il existe deux façons de générer automatiquement le code wrapper Android nécessaire pour le modèle LiteRT avec métadonnées :
La liaison de modèle ML d'Android Studio est un outil disponible dans Android Studio pour importer le modèle LiteRT via une interface graphique. Android Studio configure automatiquement les paramètres du projet et génère des classes wrapper en fonction des métadonnées du modèle.
LiteRT Code Generator est un exécutable qui génère automatiquement l'interface du modèle en fonction des métadonnées. Il est actuellement compatible avec Android et Java. Le code du wrapper élimine la nécessité d'interagir directement avec
ByteBuffer. Les développeurs peuvent interagir avec le modèle LiteRT à l'aide d'objets typés tels queBitmapetRect. Les utilisateurs d'Android Studio peuvent également accéder à la fonctionnalité de génération de code via Android Studio ML Binding.
Créer des pipelines d'inférence personnalisés avec la bibliothèque d'assistance LiteRT
La bibliothèque d'assistance LiteRT est une bibliothèque multiplate-forme qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il contient différentes méthodes utilitaires et structures de données pour effectuer le pré/post-traitement et la conversion des données. Il est également conçu pour correspondre au comportement des modules TensorFlow, tels que TF.Image et TF.Text, afin d'assurer la cohérence entre l'entraînement et l'inférence.
Explorer les modèles pré-entraînés avec des métadonnées
Parcourez Kaggle Models pour télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Consultez également les différentes options de visualisation des métadonnées.
Dépôt GitHub d'assistance LiteRT
Pour obtenir d'autres exemples et le code source, consultez le dépôt GitHub LiteRT Support.