Conversion, exécution et optimisation efficaces pour le machine learning sur l'appareil.
LiteRT n'est pas seulement nouveau : il s'agit de la prochaine génération du runtime de machine learning le plus déployé au monde. Il alimente les applications que vous utilisez tous les jours, en offrant une faible latence et une confidentialité élevée sur des milliards d'appareils.

Approuvé par les applications Google les plus critiques

Plus de 100 000 applications, des milliards d'utilisateurs dans le monde

Points forts de LiteRT

Déployer avec LiteRT

Simplifiez votre workflow de deep learning, de l'entraînement au déploiement sur l'appareil.
Utilisez des modèles pré-entraînés .tflite ou convertissez des modèles PyTorch, JAX ou TensorFlow au format .tflite.
Utilisez le kit d'outils d'optimisation LiteRT pour quantifier vos modèles après l'entraînement.
Déployez votre modèle avec LiteRT et choisissez l'accélérateur optimal pour votre application.

Choisir votre parcours de développement

Utilisez LiteRT pour déployer l'IA n'importe où, des applications mobiles hautes performances aux appareils IoT aux ressources limitées.
Passage à LiteRT pour profiter de performances améliorées et d'API unifiées sur toutes les plates-formes (Android, ordinateur, Web).
Vous avez un modèle PyTorch et vous souhaitez implémenter des expériences de vision ou audio sur l'appareil.
Créer des chatbots sophistiqués sur l'appareil à l'aide de modèles d'IA générative à poids ouverts optimisés comme Gemma ou un autre modèle à poids ouvert.
Créer des modèles personnalisés ou effectuer des optimisations CPU/GPU/NPU spécifiques au matériel pour des performances optimales.

Exemples, modèles et démo

Modèles d'IA générative pré-entraînés et prêts à l'emploi.
Galerie présentant des cas d'utilisation du ML/de l'IA générative sur l'appareil à l'aide de LiteRT.

Blogs et annonces

Tenez-vous informé des dernières annonces, présentations techniques détaillées et benchmarks de performances de l'équipe LiteRT.
Framework de ML unifié de Google sur l'appareil, qui évolue à partir de TFLite pour un déploiement hautes performances.
Extension de la compatibilité de l'accélération NPU aux chipsets MediaTek pour une IA très efficace.
Des performances révolutionnaires pour l'IA générative sur les unités de traitement neuronal Qualcomm.
Présentation de l'API CompiledModel pour la sélection automatique du matériel et l'exécution asynchrone.
Déployez des modèles de langage sur des plates-formes portables et basées sur navigateur à l'aide de LiteRT-LM.
Dernières informations sur le RAG, la multimodalité et les appels de fonction pour les modèles de langage Edge

Rejoignez la communauté

Contribuez directement au projet et collaborez avec les développeurs principaux.
Accédez à des modèles à pondération ouverte optimisés sur le hub Hugging Face.
Vous voulez faire passer votre ML sur l'appareil à la vitesse supérieure ? Consultez la documentation et commencez à créer dès aujourd'hui.