Vous pouvez utiliser immédiatement différents modèles Open Source déjà entraînés avec LiteRT pour effectuer de nombreuses tâches de machine learning. L'utilisation de modèles LiteRT pré-entraînés vous permet d'ajouter rapidement des fonctionnalités de machine learning à votre application mobile et pour les appareils de périphérie, sans avoir à créer ni à entraîner de modèle. Ce guide vous aide à trouver et à choisir des modèles entraînés à utiliser avec LiteRT.
Vous pouvez commencer à parcourir un grand nombre de modèles sur Kaggle Models.
Trouver un modèle pour votre application
Trouver un modèle LiteRT existant pour votre cas d'utilisation peut être difficile selon ce que vous essayez d'accomplir. Voici quelques méthodes recommandées pour découvrir des modèles à utiliser avec LiteRT :
Par exemple : le moyen le plus rapide de trouver et de commencer à utiliser des modèles avec TensorFlow Lite consiste à parcourir la section Exemples LiteRT pour trouver des modèles qui effectuent une tâche semblable à votre cas d'utilisation. Ce court catalogue d'exemples fournit des modèles pour les cas d'utilisation courants, avec des explications sur les modèles et des exemples de code pour vous aider à les exécuter et à les utiliser.
Par type de données d'entrée : en plus de consulter des exemples similaires à votre cas d'utilisation, vous pouvez découvrir des modèles pour votre propre utilisation en tenant compte du type de données que vous souhaitez traiter, comme des données audio, textuelles, d'image ou vidéo. Les modèles de machine learning sont souvent conçus pour être utilisés avec l'un de ces types de données. Par conséquent, rechercher des modèles qui gèrent le type de données que vous souhaitez utiliser peut vous aider à affiner votre sélection.
Vous trouverez ci-dessous des liens vers des modèles LiteRT sur Kaggle Models pour les cas d'utilisation courants :
- Modèles de classification d'images
- Modèles de détection d'objets
- Modèles de classification de texte
- Modèles d'embedding textuel
- Modèles de synthèse vocale audio
- Modèles d'embedding audio
Choisir entre des modèles similaires
Si votre application suit un cas d'utilisation courant tel que la classification d'images ou la détection d'objets, vous devrez peut-être choisir entre plusieurs modèles TensorFlow Lite, avec des tailles binaires, des tailles d'entrée de données, des vitesses d'inférence et des niveaux de précision de prédiction différents. Lorsque vous devez choisir entre plusieurs modèles, vous devez d'abord réduire vos options en fonction de votre contrainte la plus limitative : taille du modèle, taille des données, vitesse d'inférence ou précision.
Si vous n'êtes pas sûr de la contrainte la plus limitative, partez du principe qu'il s'agit de la taille du modèle et choisissez le plus petit modèle disponible. Choisir un petit modèle vous offre la plus grande flexibilité en termes d'appareils sur lesquels vous pouvez déployer et exécuter le modèle avec succès. Les modèles plus petits produisent généralement des inférences plus rapides, et des prédictions plus rapides créent généralement de meilleures expériences pour les utilisateurs finaux. Les modèles plus petits ont généralement des taux de précision plus faibles. Vous devrez peut-être choisir des modèles plus grands si la précision des prédictions est votre principale préoccupation.
Sources des modèles
Consultez les sections Exemples LiteRT et Modèles Kaggle pour trouver et sélectionner des modèles à utiliser avec TensorFlow Lite. Ces sources proposent généralement des modèles à jour et sélectionnés à utiliser avec LiteRT, et incluent souvent des exemples de code pour accélérer votre processus de développement.
Modèles TensorFlow
Il est possible de convertir des modèles TensorFlow standards au format TensorFlow Lite. Pour en savoir plus sur la conversion de modèles, consultez la documentation sur le convertisseur TensorFlow Lite. Vous trouverez des modèles TensorFlow sur Kaggle Models et dans TensorFlow Model Garden.