Déploiement de ML et d'IA générative hautes performances sur les plates-formes Edge
Conversion, exécution et optimisation efficaces pour le machine learning sur l'appareil.
Basé sur la base éprouvée de TensorFlow Lite
LiteRT n'est pas seulement nouveau : il s'agit de la prochaine génération du runtime de machine learning le plus déployé au monde. Il alimente les applications que vous utilisez tous les jours, en offrant une faible latence et une confidentialité élevée sur des milliards d'appareils.
Approuvé par les applications Google les plus critiques
Plus de 100 000 applications, des milliards d'utilisateurs dans le monde
Points forts de LiteRT
Compatible multiplate-forme
Exploiter l'IA générative
Accélération matérielle simplifiée
Compatibilité avec plusieurs frameworks
Déployer avec LiteRT
Obtenir un modèle
Utiliser des modèles pré-entraînés .tflite ou convertir des modèles PyTorch, JAX ou TensorFlow au format .tflite
Optimiser le modèle
Quantifier le modèle (facultatif)
Exécuter
Choisissez l'accélérateur souhaité et exécutez-le sur LiteRT.
Exemples, modèles et démo
Voir l'application exemple
Des tutoriels vous montrent comment utiliser LiteRT avec des exemples complets de bout en bout.
Voir les modèles d'IA générative
Modèles d'IA générative pré-entraînés et prêts à l'emploi.
Voir les démos : application Galerie
Galerie présentant des cas d'utilisation du ML/de l'IA générative sur l'appareil