Guide de démarrage rapide pour les appareils Linux avec Python

L'utilisation de LiteRT avec Python est idéale pour les appareils embarqués basés sur Linux, tels que Raspberry Pi et Appareils Corail avec Edge TPU, entre autres.

Cette page explique comment exécuter des modèles LiteRT avec Python dans dans quelques minutes. Vous n'avez besoin que d'un modèle TensorFlow converti en TensorFlow Mode simplifié. Si vous n'avez pas encore converti de modèle, vous pouvez test à l'aide du modèle fourni dans l'exemple dont le lien figure ci-dessous.)

À propos du package d'exécution LiteRT

Pour commencer rapidement à exécuter des modèles LiteRT avec Python, vous pouvez installer uniquement l'interpréteur LiteRT, au lieu de tous les packages TensorFlow. Mer appelez ce package Python simplifié tflite_runtime.

Le package tflite_runtime est une fraction de la taille du tensorflow complet. et inclut le minimum de code requis pour exécuter des inférences avec LiteRT, principalement Interpreter Python. Ce petit package est idéal lorsque tout ce que vous voulez faire est d'exécuter les modèles .tflite et d'éviter de gaspiller de l'espace disque grâce à la grande bibliothèque TensorFlow.

Installer LiteRT pour Python

Vous pouvez l'installer sous Linux à l'aide de pip:

python3 -m pip install tflite-runtime

Plates-formes compatibles

Les roues Python tflite-runtime sont prédéfinies et fournies pour plates-formes:

  • Linux armv7l (par exemple, Raspberry Pi 2, 3, 4 et Zero 2 exécutant le système d'exploitation Raspberry Pi 32 bits)
  • Linux aarch64 (par exemple, Raspberry Pi 3, 4 exécutant Debian ARM64)
  • Linux x86_64

Si vous souhaitez exécuter des modèles LiteRT sur d'autres plates-formes, vous devez : Utiliser le package TensorFlow complet créer le package tflite-runtime à partir de la source ;

Si vous utilisez TensorFlow avec le TPU Coral Edge, vous devez suivez plutôt la documentation de configuration de Coral.

Exécuter une inférence à l'aide de tflite_runtime

Au lieu d'importer Interpreter depuis le module tensorflow, vous devez maintenant importez-le depuis tflite_runtime.

Par exemple, après avoir installé le package ci-dessus, copiez et exécutez la label_image.py . Elle échouera (probablement), car vous ne disposez pas de la bibliothèque tensorflow. installés. Pour résoudre ce problème, modifiez cette ligne du fichier:

import tensorflow as tf

Voici ce qu'il se passe à la place:

import tflite_runtime.interpreter as tflite

Ensuite, modifiez cette ligne:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Voici donc:

interpreter = tflite.Interpreter(model_path=args.model_file)

Exécutez à nouveau label_image.py. Et voilà ! Vous exécutez maintenant LiteRT des modèles de ML.

En savoir plus