Tout nouveau développement de l'environnement d'exécution hautes performances de Google pour l'IA sur l'appareil exclusivement sur LiteRT. Les applications qui utilisent les packages TensorFlow Lite continuent de fonctionner, mais toutes les nouvelles mises à jour ne sont disponibles que dans LiteRT. packages. Les API LiteRT contiennent les mêmes noms de méthodes que les API TF Lite. Par conséquent, la migration vers LiteRT ne nécessite pas de modifications détaillées du code.
Pour les changements de nom de package, consultez les guides de migration suivants pour connaître les plates-formes.
Migrer avec Android
Pour migrer une application Android à l'aide de TensorFlow Lite, remplacez la dépendance
de org.tensorflow:tensorflow-lite
à com.google.ai.edge.litert
. La
Dépôt Maven LiteRT
inclut les packages suivants:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Vous pouvez effectuer cette modification dans vos dépendances build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Services Play
LiteRT dans l'environnement d'exécution des services Play continue d'utiliser play-services-tflite
la dépendance. Si votre application utilise déjà l'environnement d'exécution des services Play avec
TensorFlow Lite, vous n'avez pas besoin de modifier le code.
Pour utiliser LiteRT dans les services Play, ajoutez ce qui suit à votre build.gradle
dépendances:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
Migrer avec Python
Pour migrer du code Python à l'aide de TensorFlow Lite, remplacez le package PIP
De tflite-runtime
à ai-edge-litert
.
Installez LiteRT avec PIP:
$ python3 -m pip install ai-edge-litert
Importez LiteRT à l'aide des éléments suivants:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Autres bibliothèques
SDK Swift et Objective-C pour iOS, SDK C++, bibliothèque de tâches et Model Maker continue d'exister dans les API TensorFlow Lite. Les applications utilisant ces Les SDK ou les bibliothèques ne doivent pas migrer vers LiteRT.