El uso de TensorFlow Lite con Python es ideal para dispositivos incorporados basados en Linux, como Raspberry Pi y dispositivos Coral con Edge TPU, entre muchos otros.
En esta página, se muestra cómo puedes comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesitas es un modelo de TensorFlow convertido a TensorFlow Lite. (Si aún no tienes un modelo convertido, puedes experimentar con el modelo que se proporciona con el ejemplo vinculado a continuación).
Información acerca del paquete del entorno de ejecución de TensorFlow Lite
Para comenzar a ejecutar rápidamente modelos de TensorFlow Lite con Python, puedes instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. A este paquete simplificado de Python lo llamamos tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del paquete tensorflow
completo y, además, incluye el código mínimo requerido para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter
de Python. Este pequeño paquete es ideal cuando lo único que quieres hacer es ejecutar modelos de .tflite
y evitar desperdiciar espacio en el disco con la gran biblioteca de TensorFlow.
Instala TensorFlow Lite para Python
Puedes realizar la instalación en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las ruedas de Python tflite-runtime
se compilan previamente y se proporcionan para estas plataformas:
- Linux armv7l (p.ej., Raspberry Pi 2, 3, 4 y Zero 2 con SO Raspberry Pi de 32 bits)
- Linux aarch64 (p.ej., Raspberry Pi 3, 4 que ejecuta Debian ARM64)
- Linux x86_64
Si quieres ejecutar modelos de TensorFlow Lite en otras plataformas, debes usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime a partir del código fuente.
Si usas TensorFlow con Coral Edge TPU, debes seguir la documentación de configuración de Coral correspondiente.
Ejecuta una inferencia con tflite_runtime
En lugar de importar Interpreter
desde el módulo tensorflow
, ahora debes importarlo desde tflite_runtime
.
Por ejemplo, después de instalar el paquete anterior, copia y ejecuta el archivo label_image.py
. Es probable que falle (probablemente) porque no tienes instalada la biblioteca tensorflow
. Para solucionarlo, edita esta línea del archivo:
import tensorflow as tf
Por lo tanto, dice lo siguiente:
import tflite_runtime.interpreter as tflite
Y, luego, cambia esta línea:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Dice lo siguiente:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ahora vuelve a ejecutar label_image.py
. Listo. Ahora ejecutas modelos
de TensorFlow Lite.
Más información
Para obtener más detalles sobre la API de
Interpreter
, consulta Carga y ejecuta un modelo en Python.Si tienes una Raspberry Pi, consulta una serie de videos sobre cómo ejecutar la detección de objetos en Raspberry Pi con TensorFlow Lite.
Si usas un acelerador de AA de Coral, consulta los ejemplos de Coral en GitHub.
Para convertir otros modelos de TensorFlow a TensorFlow Lite, lee sobre el convertidor de TensorFlow Lite.
Si quieres compilar la rueda
tflite_runtime
, consulta Cómo compilar el paquete de Python Wheel de TensorFlow Lite.