L'utilisation de LiteRT avec Python est idéale pour les appareils embarqués basés sur Linux, tels que Raspberry Pi et Appareils Corail avec Edge TPU, entre autres.
Cette page explique comment exécuter des modèles LiteRT avec Python dans dans quelques minutes. Vous n'avez besoin que d'un modèle TensorFlow converti en TensorFlow Mode simplifié. Si vous n'avez pas encore converti de modèle, vous pouvez test à l'aide du modèle fourni dans l'exemple dont le lien figure ci-dessous.)
À propos du package d'exécution LiteRT
Pour commencer rapidement à exécuter des modèles LiteRT avec Python, vous pouvez installer
uniquement l'interpréteur LiteRT, au lieu
de tous les packages TensorFlow. Mer
appelez ce package Python simplifié tflite_runtime
.
Le package tflite_runtime
est une fraction de la taille du tensorflow
complet.
et inclut le minimum de code requis pour exécuter des inférences avec
LiteRT, principalement
Interpreter
Python. Ce petit package est idéal lorsque tout ce
que vous voulez faire est d'exécuter
les modèles .tflite
et d'éviter de gaspiller de l'espace disque grâce à la grande bibliothèque TensorFlow.
Installer LiteRT pour Python
Vous pouvez l'installer sous Linux à l'aide de pip:
python3 -m pip install tflite-runtime
Plates-formes compatibles
Les roues Python tflite-runtime
sont prédéfinies et fournies pour
plates-formes:
- Linux armv7l (par exemple, Raspberry Pi 2, 3, 4 et Zero 2 exécutant le système d'exploitation Raspberry Pi 32 bits)
- Linux aarch64 (par exemple, Raspberry Pi 3, 4 exécutant Debian ARM64)
- Linux x86_64
Si vous souhaitez exécuter des modèles LiteRT sur d'autres plates-formes, vous devez : Utiliser le package TensorFlow complet créer le package tflite-runtime à partir de la source ;
Si vous utilisez TensorFlow avec le TPU Coral Edge, vous devez suivez plutôt la documentation de configuration de Coral.
Exécuter une inférence à l'aide de tflite_runtime
Au lieu d'importer Interpreter
depuis le module tensorflow
, vous devez maintenant
importez-le depuis tflite_runtime
.
Par exemple, après avoir installé le package ci-dessus, copiez et exécutez la
label_image.py
. Elle échouera (probablement), car vous ne disposez pas de la bibliothèque tensorflow
.
installés. Pour résoudre ce problème, modifiez cette ligne du fichier:
import tensorflow as tf
Voici ce qu'il se passe à la place:
import tflite_runtime.interpreter as tflite
Ensuite, modifiez cette ligne:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Voici donc:
interpreter = tflite.Interpreter(model_path=args.model_file)
Exécutez à nouveau label_image.py
. Et voilà ! Vous exécutez maintenant LiteRT
des modèles de ML.
En savoir plus
Pour en savoir plus sur l'API
Interpreter
, consultez la page Charger et exécuter un modèle en PythonSi vous possédez un Raspberry Pi, regardez cette série de vidéos. sur l'exécution de la détection d'objets sur Raspberry Pi à l'aide de LiteRT.
Si vous utilisez un accélérateur Coral ML, consultez la Exemples de coraux sur GitHub
Pour convertir d'autres modèles TensorFlow en modèles LiteRT, consultez les Convertisseur LiteRT :
Si vous souhaitez créer la roue
tflite_runtime
, consultez la page Créer un package LiteRT Python Wheel