Inférence TensorFlow Lite avec des métadonnées

L'inférence de modèles avec des métadonnées peut être aussi simple que quelques lignes de code. Les métadonnées TensorFlow Lite contiennent une description détaillée de la fonction du modèle et de son utilisation. Il peut permettre aux générateurs de code de générer automatiquement le code d'inférence à votre place, par exemple à l'aide de la fonctionnalité de liaison ML d'Android Studio ou du générateur de code Android TensorFlow Lite. Il peut également servir à configurer votre pipeline d'inférence personnalisé.

Outils et bibliothèques

TensorFlow Lite fournit différents outils et bibliothèques pour répondre à différents niveaux d'exigences de déploiement, comme suit:

Générer une interface de modèle avec les générateurs de code Android

Il existe deux façons de générer automatiquement le code wrapper Android nécessaire pour le modèle TensorFlow Lite avec des métadonnées:

  1. La liaison de modèles de ML d'Android Studio est un outil disponible dans Android Studio qui permet d'importer un modèle TensorFlow Lite via une interface graphique. Android Studio configure automatiquement les paramètres du projet et génère des classes de wrapper en fonction des métadonnées du modèle.

  2. Le générateur de code TensorFlow Lite est un exécutable qui génère automatiquement une interface de modèle en fonction des métadonnées. Il est actuellement compatible avec Android avec Java. Le code du wrapper évite d'avoir à interagir directement avec ByteBuffer. À la place, les développeurs peuvent interagir avec le modèle TensorFlow Lite avec des objets typés tels que Bitmap et Rect. Les utilisateurs d'Android Studio peuvent également accéder à la fonctionnalité de génération de code via la liaison ML d'Android Studio.

Créer des pipelines d'inférence personnalisés avec la bibliothèque Support TensorFlow Lite

La bibliothèque Support TensorFlow Lite est une bibliothèque multiplate-forme qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il contient diverses méthodes et structures de données utiles pour effectuer le pré/post-traitement et la conversion des données. Il est également conçu pour correspondre au comportement des modules TensorFlow, tels que TF.Image et TF.Text, assurant ainsi la cohérence de l'entraînement à l'inférence.

Explorer des modèles pré-entraînés avec des métadonnées

Parcourez les modèles Kaggle pour télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Vous pouvez également consulter les différentes options de visualisation des métadonnées.

Dépôt GitHub d'assistance TensorFlow Lite

Pour obtenir plus d'exemples et de code source, accédez au dépôt GitHub d'assistance TensorFlow Lite.