Inférence LiteRT avec des métadonnées

L'inférence de modèles avec des métadonnées est un jeu d'enfant quelques lignes de code. Les métadonnées LiteRT contiennent une description détaillée de ce que fait le modèle et comment l'utiliser. Il peut permettre aux générateurs de code générer automatiquement le code d'inférence, par exemple à l'aide de la classe Android Studio ML Binding ou LiteRT Générateur de code Android Il peut également être utilisé pour configurer votre pipeline d'inférence personnalisé.

Outils et bibliothèques

LiteRT fournit différents outils et bibliothèques pour répondre d'exigences de déploiement, comme suit:

Générer une interface de modèle avec les générateurs de code Android

Il existe deux façons de générer automatiquement le code wrapper Android nécessaire. Pour le modèle LiteRT avec des métadonnées:

  1. Des outils sont disponibles pour la liaison de modèles de ML d'Android Studio. dans Android Studio pour importer un modèle LiteRT via un graphique de commande. Android Studio configure automatiquement les paramètres et générer des classes wrapper basées sur les métadonnées du modèle.

  2. Le générateur de code LiteRT est un exécutable génère automatiquement une interface de modèle en fonction des métadonnées. Actuellement est compatible avec Android avec Java. Le code du wrapper élimine la nécessité d'interagir directement avec ByteBuffer. Au lieu de cela, les développeurs peuvent interagir avec Modèle LiteRT avec des objets typés tels que Bitmap et Rect Les utilisateurs d'Android Studio peuvent également accéder à la fonctionnalité de génération de code via Liaison ML Android Studio

Créer des pipelines d'inférence personnalisés avec la bibliothèque Support LiteRT

La bibliothèque Support LiteRT est une bibliothèque multiplate-forme qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il contient diverses méthodes et structures de données utiles pour effectuer des opérations avant/après le traitement et la conversion des données. Il est également conçu pour s'adapter au comportement les modules TensorFlow, tels que TF.Image et TF.Text, pour assurer la cohérence l'entraînement aux inférences.

Explorer des modèles pré-entraînés avec des métadonnées

Parcourez les modèles Kaggle pour télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Aussi les différentes options de visualisation métadonnées.

Dépôt GitHub d'assistance LiteRT

Consultez la page GitHub d'assistance LiteRT pour obtenir plus d'exemples et le code source du code source.