Modèles pré-entraînés pour TensorFlow Lite

Il existe une variété de modèles Open Source déjà entraînés que vous pouvez utiliser immédiatement avec TensorFlow Lite pour accomplir de nombreuses tâches de machine learning. Les modèles TensorFlow Lite pré-entraînés vous permettent d'ajouter rapidement des fonctionnalités de machine learning à votre application mobile et de périphérie, sans avoir à créer ni à entraîner un modèle. Ce guide vous aide à trouver et à choisir les modèles entraînés à utiliser avec TensorFlow Lite.

Vous pouvez commencer à parcourir un large ensemble de modèles sur les modèles Kaggle.

Trouver un modèle pour votre application

Selon ce que vous essayez d'accomplir, il peut être difficile de trouver un modèle TensorFlow Lite existant pour votre cas d'utilisation. Voici quelques méthodes recommandées pour découvrir des modèles à utiliser avec TensorFlow Lite:

Par exemple:le moyen le plus rapide de trouver des modèles et de commencer à les utiliser avec TensorFlow Lite consiste à parcourir la section Exemples TensorFlow Lite. Vous y trouverez des modèles qui exécutent une tâche semblable à votre cas d'utilisation. Ce court catalogue d'exemples fournit des modèles pour les cas d'utilisation courants, avec des explications sur les modèles et un exemple de code pour vous aider à les exécuter et à les utiliser.

Par type d'entrée de données:en plus d'examiner des exemples semblables à votre cas d'utilisation, une autre façon de découvrir des modèles pour votre propre utilisation consiste à prendre en compte le type de données que vous souhaitez traiter, comme des données audio, textuelles, des images ou des vidéos. Les modèles de machine learning sont souvent conçus pour être utilisés avec l'un de ces types de données. Par conséquent, rechercher des modèles qui gèrent le type de données que vous souhaitez utiliser peut vous aider à affiner les modèles à prendre en compte.

Voici la liste des liens vers les modèles TensorFlow Lite sur les modèles Kaggle pour les cas d'utilisation courants:

Choisir un modèle similaire

Si votre application suit un cas d'utilisation courant, tel que la classification d'images ou la détection d'objets, vous devrez peut-être choisir entre plusieurs modèles TensorFlow Lite, dont la taille binaire, la taille d'entrée des données, la vitesse d'inférence et les taux de précision des prédictions varient. Lorsque vous devez choisir entre plusieurs modèles, vous devez d'abord affiner vos options en fonction de votre contrainte la plus restrictive: taille du modèle, taille des données, vitesse d'inférence ou justesse.

Si vous ne savez pas quelle est votre contrainte la plus contraignante, partez du principe qu'il s'agit de la taille du modèle et choisissez le plus petit modèle disponible. Le choix d'un petit modèle vous offre le plus de flexibilité en termes d'appareils sur lesquels vous pouvez déployer et exécuter le modèle. De plus, les modèles plus petits produisent généralement des inférences plus rapides, et des prédictions plus rapides créent généralement de meilleures expériences utilisateur. Les modèles plus petits ont généralement des taux de justesse inférieurs. Vous devrez donc peut-être choisir des modèles plus grands si la justesse des prédictions est votre principale préoccupation.

Sources des modèles

La section Exemples TensorFlow Lite et les Modèles Kaggle vous permettent de rechercher et de sélectionner des modèles à utiliser avec TensorFlow Lite. Ces sources disposent généralement de modèles sélectionnés à jour pour une utilisation avec TensorFlow Lite, et incluent fréquemment un exemple de code pour accélérer votre processus de développement.

Modèles TensorFlow

Il est possible de convertir les modèles TensorFlow standards au format TensorFlow Lite. Pour en savoir plus sur la conversion de modèles, consultez la documentation sur le convertisseur TensorFlow Lite. Vous pouvez trouver des modèles TensorFlow sur les modèles Kaggle et dans le jardin de modèles TensorFlow.