Créer des modèles LiteRT

Cette page fournit des conseils pour créer vos modèles TensorFlow avec la au format de modèle LiteRT. La machine les modèles de ML (ML) que vous utilisez avec LiteRT sont initialement conçus entraînés à l'aide des outils et bibliothèques TensorFlow. Une fois que vous avez créé un modèle avec TensorFlow Core, vous pouvez le convertir en un modèle de ML plus petit et plus efficace appelé modèle LiteRT.

Si vous disposez déjà d'un modèle à convertir, consultez la section Convertir des modèles présentation pour savoir comment convertir votre modèle.

Créer votre modèle

Si vous créez un modèle personnalisé pour votre cas d'utilisation spécifique, commencez par au développement et à l'entraînement d'un modèle TensorFlow, ou à l'extension d'un modèle existant.

Contraintes de conception du modèle

Avant de commencer à développer votre modèle, vous devez connaître pour les modèles LiteRT et créer votre modèle avec ces ces contraintes:

  • Capacités de calcul limitées : par rapport aux serveurs entièrement équipés plusieurs processeurs, une grande capacité de mémoire et des processeurs spécialisés comme les GPU et les TPU, les appareils mobiles et de périphérie sont bien plus limités. Pendant qu'ils sont de plus en plus de puissance de calcul et de compatibilité matérielle spécialisée, les modèles et les données que vous pouvez traiter efficacement avec elles restent relativement limitées.
  • Taille des modèles : complexité globale d'un modèle, données comprises la logique de prétraitement et le nombre de couches du modèle, en mémoire d'un modèle. Un grand modèle peut s'exécuter trop lentement ou simplement peuvent ne pas tenir dans la mémoire disponible d'un appareil mobile ou de périphérie.
  • Taille des données : la taille des données d'entrée pouvant être traitées efficacement. avec un modèle de machine learning est limité sur les appareils mobiles ou de périphérie. Modèles qui utilisent de grandes bibliothèques de données comme des bibliothèques de langage, des bibliothèques d'images, ou des bibliothèques d'extraits vidéo peuvent ne pas être compatibles avec ces appareils et nécessiter des solutions de stockage et d’accès hors appareil.
  • Opérations TensorFlow compatibles : environnements d'exécution LiteRT sont compatibles avec un sous-ensemble d'opérations de modèles de machine learning par rapport TensorFlow Model. Lorsque vous développez un modèle à utiliser avec LiteRT, doit suivre la compatibilité de votre modèle avec les capacités Environnements d'exécution LiteRT.

Pour en savoir plus sur la création de modèles hautes performances, compatibles et efficaces pour Pour plus d'informations, consultez la page Bonnes pratiques concernant les performances.

Développement du modèle

Pour créer un modèle LiteRT, vous devez d'abord créer un modèle en utilisant Bibliothèques principales TensorFlow. Les bibliothèques TensorFlow de niveau inférieur qui fournissent des API pour créer, entraîner et déployer des modèles de ML.

Workflow de compilation TFLite

Pour ce faire, TensorFlow propose deux méthodes. Vous pouvez développer vos propres modèles code du modèle, ou vous pouvez commencer par une implémentation de modèle disponible dans Model Garden TensorFlow.

Model Garden

TensorFlow Model Garden fournit des implémentations de nombreuses des modèles de machine learning (ML) pour la vision et le traitement du langage naturel (TLN). Des outils de workflow vous permettent aussi de configurer et d'exécuter rapidement sur des ensembles de données standards. Les modèles de machine learning dans Model Garden Incluez du code complet afin de pouvoir les tester, les entraîner ou les réentraîner à l'aide de votre propre des ensembles de données.

Que vous cherchiez à comparer les performances d'un modèle connu, les résultats de recherches récentes ou d'étendre les modèles existants, le modèle Garden peut vous aider à atteindre vos objectifs de ML.

Modèles personnalisés

Si votre cas d'utilisation ne correspond pas à ceux pris en charge par les modèles de Model Garden, vous pouvez utiliser une bibliothèque de haut niveau telle que Keras pour développer votre code d'entraînement personnalisé. Pour découvrir les principes de base de TensorFlow, consultez la Guide TensorFlow. Pour commencer à utiliser exemples, consultez les tutoriels TensorFlow de présentation, qui contiennent des pointeurs vers des tutoriels de niveau expert.

Évaluation du modèle

Une fois votre modèle développé, vous devez évaluer ses performances sur les appareils des utilisateurs finaux. Pour ce faire, TensorFlow propose plusieurs méthodes.

  • TensorBoard est un outil permettant de fournir les mesures et les visualisations nécessaires le workflow de machine learning. Il permet de suivre les métriques de test, comme la perte et la justesse, visualiser le graphe du modèle, projeter les représentations vectorielles continues l’espace dimensionnel, et bien plus encore.
  • Des outils d'analyse comparative sont disponibles pour chaque comme l'application Android et iOS. Utilisez ces outils pour mesurer et calculer les statistiques des performances importantes métriques.

Optimisation du modèle

Avec les contraintes appliquées aux ressources spécifiques à TensorFlow Modèles Lite, l'optimisation des modèles peut vous aider à garantir le bon fonctionnement des modèles et utilise moins de ressources de calcul. Les performances des modèles de machine learning trouver l'équilibre entre taille et vitesse d'inférence et précision. LiteRT est actuellement compatible avec l'optimisation via la quantification, l'élagage et le clustering. Voir l'article Optimisation du modèle. techniques. TensorFlow propose aussi un modèle d'optimisation d'outils qui fournit une API qui met en œuvre ces techniques.

Étapes suivantes