LiteRT dans les services Google Play

LiteRT est disponible dans l'environnement d'exécution des services Google Play pour tous les appareils Android exécutant la version actuelle des services Play. Ce runtime vous permet d'exécuter des modèles de machine learning (ML) sans regrouper de manière statique les bibliothèques LiteRT dans votre application.

Avec l'API Google Play Services, vous pouvez réduire la taille de vos applications et améliorer les performances grâce à la dernière version stable des bibliothèques. TensorFlow Lite dans les services Google Play est la méthode recommandée pour utiliser LiteRT sur Android.

Si vous utilisez déjà TensorFlow Lite autonome dans votre application, consultez la section Passer de LiteRT autonome pour mettre à jour une application existante afin qu'elle utilise l'environnement d'exécution des services Play. Pour en savoir plus sur les services Google Play, consultez le site Web des services Google Play.

Utiliser l'environnement d'exécution des services Play

LiteRT dans les services Google Play est disponible via les API de langage de programmation suivantes:

Limites

LiteRT dans les services Google Play présente les limites suivantes:

  • La prise en charge des délégués d'accélération matérielle est limitée aux délégués listés dans la section Accélération matérielle. Aucun autre délégué d'accélération n'est accepté.
  • Les API LiteRT expérimentales ou obsolètes, y compris les opérations personnalisées, ne sont pas compatibles.

Assistance et commentaires

Vous pouvez envoyer vos commentaires et obtenir de l'aide via l'outil Issue Tracker de TensorFlow. Veuillez signaler les problèmes et les demandes d'assistance à l'aide du modèle de problème pour LiteRT dans les services Google Play.

Conditions d'utilisation

L'utilisation de LiteRT dans les API de services Google Play est régie par les Conditions d'utilisation des API Google.

Confidentialité et collecte des données

Lorsque vous utilisez LiteRT dans les API des services Google Play, le traitement des données d'entrée, telles que les images, les vidéos et le texte, se fait entièrement sur l'appareil. TensorFlow Lite dans les API des services Google Play n'envoie pas ces données aux serveurs Google. Par conséquent, vous pouvez utiliser nos API pour traiter les données qui ne doivent pas quitter l'appareil.

Le LiteRT dans les API des services Google Play peut contacter les serveurs Google de temps en temps pour recevoir des corrections de bugs, des modèles mis à jour et des informations de compatibilité avec l'accélérateur matériel, par exemple. La LiteRT dans les API des services Google Play envoie également à Google des métriques sur les performances et l'utilisation des API de votre application. Google utilise ces données de métriques pour mesurer les performances, déboguer, gérer et améliorer les API, et détecter toute utilisation abusive ou malveillante, comme décrit plus en détail dans nos Règles de confidentialité.

Il est de votre responsabilité d'informer les utilisateurs de votre application du traitement par Google des données de métriques LiteRT dans les API de services Google Play, comme l'exige la législation applicable.

Les données que nous recueillons incluent les éléments suivants:

  • Informations sur l'appareil (fabricant, modèle, version et build de l'OS, par exemple) et accélérateurs matériels de ML disponibles (GPU et DSP) Utilisé pour les diagnostics et l'analyse de l'utilisation.
  • Identifiant de l'appareil utilisé pour les diagnostics et les analyses d'utilisation.
  • Informations sur l'application (nom du package, version de l'application) Utilisé pour les diagnostics et l'analyse de l'utilisation.
  • Configuration de l'API (par exemple, les délégués utilisés) Utilisé pour les diagnostics et les analyses d'utilisation.
  • Type d'événement (création d'un interpréteur, inférence, etc.) Utilisé pour les diagnostics et l'analyse de l'utilisation.
  • Codes d'erreur. Utilisé pour les diagnostics.
  • Métriques de performances Utilisé pour les diagnostics.