Usar LiteRT con Python es excelente para dispositivos incorporados basados en Linux, como Raspberry Pi y Dispositivos de Coral con Edge TPU, entre muchos otros.
Esta página muestra cómo puedes comenzar a ejecutar modelos LiteRT con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite: (Si aún no has convertido un modelo, puedes prueba con el modelo proporcionado en el ejemplo cuyo vínculo aparece a continuación).
Información acerca del paquete de entorno de ejecución de LiteRT
Para comenzar a ejecutar rápidamente modelos LiteRT con Python, puedes instalar
solo con el intérprete LiteRT, en lugar de todos los paquetes de TensorFlow. Mié
llama a este paquete simplificado de Python tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del tensorflow
completo
e incluye el código mínimo necesario para ejecutar inferencias con
LiteRT, principalmente el
Interpreter
Python. Este pequeño paquete es ideal cuando lo único que quieres hacer es ejecutar
.tflite
y evita desperdiciar espacio en el disco con la gran biblioteca de TensorFlow.
Instala LiteRT para Python
Puedes instalarlo en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las ruedas de Python de tflite-runtime
están previamente compiladas y se proporcionan para estas
plataformas:
- Linux armv7l (por ejemplo, Raspberry Pi 2, 3, 4 y Zero 2 que ejecutan el SO Raspberry Pi) 32 bits)
- Linux aarch64 (p.ej., Raspberry Pi 3, 4 con Debian ARM64)
- Linux x86_64
Si quieres ejecutar modelos LiteRT en otras plataformas, debes realizar una de las siguientes acciones: usar el paquete completo de TensorFlow, o compilar el paquete tflite-runtime a partir del código fuente.
Si usas TensorFlow con Coral Edge TPU, deberías En su lugar, sigue la documentación de configuración de Coral adecuada.
Ejecuta una inferencia con tflite_runtime
En lugar de importar Interpreter
desde el módulo tensorflow
, ahora debes
impórtalo desde tflite_runtime
.
Por ejemplo, después de instalar el paquete anterior, copia y ejecuta el
label_image.py
. Es probable que falle porque no tienes la biblioteca tensorflow
esté instalado. Para solucionarlo, edita esta línea del archivo:
import tensorflow as tf
En su lugar, dice lo siguiente:
import tflite_runtime.interpreter as tflite
Luego, cambia esta línea:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Dice lo siguiente:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ahora vuelve a ejecutar label_image.py
. Eso es todo. Ahora estás ejecutando LiteRT
e implementar modelos automáticamente.
Más información
Para obtener más detalles sobre la API de
Interpreter
, consulta Carga y ejecuta un modelo en Python.Si tienes una Raspberry Pi, consulta esta serie de videos. sobre cómo ejecutar la detección de objetos en Raspberry Pi con LiteRT.
Si usas un acelerador de AA de Coral, consulta la Ejemplos de Coral en GitHub.
Para convertir otros modelos de TensorFlow a LiteRT, lee acerca de Convertidor de LiteRT.
Si quieres compilar la rueda
tflite_runtime
, lee Compila un paquete LiteRT de Python Wheel