TensorFlow Lite s'appelle désormais LiteRT. LiteRT est l'environnement d'exécution principal pour l'IA hautes performances sur l'appareil de Google. Bien que les packages TensorFlow Lite existants restent fonctionnels, toutes les futures mises à jour de fonctionnalités et améliorations des performances seront exclusives à LiteRT. Étant donné que LiteRT est entièrement compatible avec l'API TensorFlow Lite Interpreter, la migration ne nécessite qu'une mise à jour du nom du package. Aucune modification de la logique n'est nécessaire.
Pour les modifications du nom du package, consultez les guides de migration suivants pour les plates-formes spécifiques.
Migrer sur Android
Pour migrer une application Android utilisant TensorFlow Lite, remplacez la dépendance de org.tensorflow:tensorflow-lite par com.google.ai.edge.litert. Le dépôt Maven LiteRT inclut les packages suivants :
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
Vous pouvez modifier cette option dans les dépendances build.gradle :
dependencies {
...
implementation `com.google.ai.edge.litert:litert:2.1.0`
}
Services Play
LiteRT dans le runtime des services Play continue d'utiliser la dépendance play-services-tflite. Si votre application utilise déjà l'environnement d'exécution des services Play avec TensorFlow Lite, vous n'avez pas besoin de modifier le code.
Pour utiliser LiteRT dans les services Play, ajoutez les éléments suivants à vos dépendances build.gradle :
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Migrer avec Python
Pour migrer le code Python à l'aide de TensorFlow Lite, remplacez le package PIP de tflite-runtime par ai-edge-litert.
Installez LiteRT avec PIP :
$ python3 -m pip install ai-edge-litert
Importez LiteRT avec la commande suivante :
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Autres bibliothèques
Les SDK Swift et Objective-C pour iOS, le SDK C++, la bibliothèque de tâches et la bibliothèque Model Maker continueront d'exister dans les packages TensorFlow Lite. Les applications utilisant ces SDK ou bibliothèques ne doivent pas migrer vers LiteRT.