Conversion, exécution et optimisation efficaces pour le machine learning sur l'appareil.
LiteRT n'est pas seulement nouveau : il s'agit de la prochaine génération du runtime de machine learning le plus déployé au monde. Il alimente les applications que vous utilisez tous les jours, en offrant une faible latence et une confidentialité élevée sur des milliards d'appareils.

Approuvé par les applications Google les plus critiques

Plus de 100 000 applications, des milliards d'utilisateurs dans le monde

Points forts de LiteRT

Déployer avec LiteRT

Utiliser des modèles pré-entraînés .tflite ou convertir des modèles PyTorch, JAX ou TensorFlow au format .tflite
Quantifier le modèle (facultatif)
Choisissez l'accélérateur souhaité et exécutez-le sur LiteRT.

Exemples, modèles et démo

Des tutoriels vous montrent comment utiliser LiteRT avec des exemples complets de bout en bout.
Modèles d'IA générative pré-entraînés et prêts à l'emploi.
Galerie présentant des cas d'utilisation du ML/de l'IA générative sur l'appareil