Modèles pré-entraînés pour LiteRT

Vous pouvez utiliser différents modèles Open Source déjà entraînés immédiatement avec LiteRT pour accomplir de nombreuses tâches de machine learning. Les modèles LiteRT pré-entraînés permettent d'ajouter des modèles à votre application mobile et de périphérie rapidement, sans avoir pour créer et entraîner un modèle. Ce guide vous aide à identifier et à choisir les formations à utiliser avec LiteRT.

Vous pouvez commencer à parcourir un large ensemble de modèles sur Kaggle modèles.

Trouver un modèle pour votre application

Trouver un modèle LiteRT existant pour votre cas d'utilisation peut s'avérer difficile en fonction de ce que vous essayez d’accomplir. Voici quelques recommandations pour découvrir les modèles à utiliser avec LiteRT:

Par exemple:le moyen le plus rapide de trouver et de commencer à utiliser des modèles avec TensorFlow Lite consiste à parcourir LiteRT Exemples pour trouver des modèles qui exécutent une tâche semblable à votre cas d'utilisation. Ce court catalogue d'exemples fournit des modèles pour les cas d'utilisation courants avec des modèles et de l'exemple de code pour vous lancer de l'IA générative.

Par type d'entrée de données:en plus d'examiner des exemples semblables à votre cas d'utilisation, Une autre façon de découvrir des modèles pour votre propre utilisation consiste à tenir compte du type de données que vous souhaitez traiter (audio, texte, images ou vidéos). Ordinateur les modèles d'apprentissage automatique sont souvent conçus pour être utilisés avec l'un de ces types de données, Par conséquent, rechercher des modèles qui gèrent le type de données souhaité peut vous aider à affiner les modèles à prendre en compte.

Voici la liste des liens vers les modèles LiteRT sur Kaggle modèles pour les cas d'utilisation courants:

Choisir un modèle similaire

Si votre application suit un cas d'utilisation courant tel que la classification d'images ou pour la détection d'objets, vous devrez peut-être choisir entre plusieurs Les modèles Lite, dont la taille binaire, la taille d'entrée des données et la vitesse d'inférence varient, le niveau de précision des prédictions. Pour choisir un nombre de modèles, doit d'abord réduire vos options en fonction de votre contrainte la plus contraignante: la taille de le modèle, la taille des données, la vitesse d'inférence ou la justesse.

Si vous n'êtes pas sûr de votre contrainte la plus contraignante, partez du principe qu'il s'agit de la taille du modèle et choisir le plus petit modèle disponible. Le choix d'un petit modèle donne la plus grande flexibilité en termes d'appareils pour déployer et exécuter le modèle. De plus, les modèles plus petits produisent généralement des inférences et des prédictions plus rapides créent généralement expériences. Les modèles plus petits ont généralement des taux de précision inférieurs, vous devrez donc peut-être de choisir des modèles plus volumineux si la justesse des prédictions est votre principale préoccupation.

Sources des modèles

Utilisez LiteRT Exemples et les modèles Kaggle que vos premières destinations pour trouver et sélectionner des modèles à utiliser avec TensorFlow. Mode simplifié. Ces sources disposent généralement de modèles à jour et sélectionnés pour être utilisés avec et incluent fréquemment des exemples de code pour accélérer votre de développement d'applications.

Modèles TensorFlow

Il est possible de convertir les modèles TensorFlow standards en TensorFlow. Format simplifié. Pour en savoir plus sur la conversion de modèles, consultez le document TensorFlow Documentation du convertisseur Lite. Vous pouvez trouver des modèles TensorFlow Modèles Kaggle et le modèle TensorFlow jardin.