L'utilisation de TensorFlow Lite avec Python est idéale pour les appareils embarqués basés sur Linux, tels que Raspberry Pi et les appareils Coral avec Edge TPU, entre autres.
Cette page explique comment exécuter des modèles TensorFlow Lite avec Python en quelques minutes seulement. Vous avez simplement besoin d'un modèle TensorFlow converti en TensorFlow Lite. (Si vous n'avez pas encore converti de modèle, vous pouvez effectuer des tests à l'aide du modèle fourni avec l'exemple ci-dessous.)
À propos du package d'exécution TensorFlow Lite
Pour commencer à exécuter rapidement des modèles TensorFlow Lite avec Python, vous pouvez installer uniquement l'interpréteur TensorFlow Lite, et non tous les packages TensorFlow. Nous appelons ce package Python simplifié tflite_runtime
.
Le package tflite_runtime
est une fraction de la taille du package tensorflow
complet. Il inclut le minimum de code requis pour exécuter des inférences avec TensorFlow Lite, principalement la classe Python Interpreter
. Ce petit package est idéal lorsque vous souhaitez simplement exécuter des modèles .tflite
et éviter de gaspiller de l'espace disque avec la grande bibliothèque TensorFlow.
Installer TensorFlow Lite pour Python
Vous pouvez effectuer l'installation sur Linux à l'aide de pip:
python3 -m pip install tflite-runtime
Plates-formes compatibles
Les roues Python tflite-runtime
sont prédéfinies et fournies pour les plates-formes suivantes:
- Linux armv7l (par exemple, Raspberry Pi 2, 3, 4 et Zero 2 exécutant l'OS Raspberry Pi 32 bits)
- Linux aarch64 (p.ex. Raspberry Pi 3, 4 exécutant Debian ARM64)
- Linux x86_64
Si vous souhaitez exécuter des modèles TensorFlow Lite sur d'autres plates-formes, vous devez utiliser le package TensorFlow complet ou créer le package tflite-runtime à partir de la source.
Si vous utilisez TensorFlow avec le TPU Coral Edge, suivez plutôt la documentation de configuration de Coral appropriée.
Exécuter une inférence à l'aide de tflite_runtime
Au lieu d'importer Interpreter
à partir du module tensorflow
, vous devez maintenant l'importer depuis tflite_runtime
.
Par exemple, après avoir installé le package ci-dessus, copiez et exécutez le fichier label_image.py
. Elle échouera (probablement) car la bibliothèque tensorflow
n'est pas installée. Pour résoudre le problème, modifiez cette ligne du fichier:
import tensorflow as tf
Voici donc ce qu'on obtient à la place:
import tflite_runtime.interpreter as tflite
Ensuite, modifiez cette ligne:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Il se lit donc:
interpreter = tflite.Interpreter(model_path=args.model_file)
Exécutez à nouveau label_image.py
. Et voilà ! Vous exécutez à présent des modèles TensorFlow Lite.
En savoir plus
Pour plus d'informations sur l'API
Interpreter
, consultez la section Charger et exécuter un modèle en Python.Si vous utilisez un Raspberry Pi, regardez une série de vidéos sur l'exécution de la détection d'objets sur Raspberry Pi à l'aide de TensorFlow Lite.
Si vous utilisez un accélérateur Coral ML, consultez les exemples Coral sur GitHub.
Pour convertir d'autres modèles TensorFlow au format TensorFlow Lite, renseignez-vous sur le convertisseur TensorFlow Lite.
Si vous souhaitez compiler
tflite_runtime
wheel, consultez la section Compiler le package TensorFlow Lite Python Wheel.