Guía de inicio rápido para dispositivos basados en Linux con Python

El uso de TensorFlow Lite con Python es ideal para dispositivos incorporados basados en Linux, como Raspberry Pi y dispositivos Coral con Edge TPU, entre muchos otros.

En esta página, se muestra cómo puedes comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesitas es un modelo de TensorFlow convertido a TensorFlow Lite. (Si aún no tienes un modelo convertido, puedes experimentar con el modelo que se proporciona con el ejemplo vinculado a continuación).

Información acerca del paquete del entorno de ejecución de TensorFlow Lite

Para comenzar a ejecutar rápidamente modelos de TensorFlow Lite con Python, puedes instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. A este paquete simplificado de Python lo llamamos tflite_runtime.

El paquete tflite_runtime es una fracción del tamaño del paquete tensorflow completo y, además, incluye el código mínimo requerido para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter de Python. Este pequeño paquete es ideal cuando lo único que quieres hacer es ejecutar modelos de .tflite y evitar desperdiciar espacio en el disco con la gran biblioteca de TensorFlow.

Instala TensorFlow Lite para Python

Puedes realizar la instalación en Linux con pip:

python3 -m pip install tflite-runtime

Plataformas compatibles

Las ruedas de Python tflite-runtime se compilan previamente y se proporcionan para estas plataformas:

  • Linux armv7l (p.ej., Raspberry Pi 2, 3, 4 y Zero 2 con SO Raspberry Pi de 32 bits)
  • Linux aarch64 (p.ej., Raspberry Pi 3, 4 que ejecuta Debian ARM64)
  • Linux x86_64

Si quieres ejecutar modelos de TensorFlow Lite en otras plataformas, debes usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime a partir del código fuente.

Si usas TensorFlow con Coral Edge TPU, debes seguir la documentación de configuración de Coral correspondiente.

Ejecuta una inferencia con tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow, ahora debes importarlo desde tflite_runtime.

Por ejemplo, después de instalar el paquete anterior, copia y ejecuta el archivo label_image.py. Es probable que falle (probablemente) porque no tienes instalada la biblioteca tensorflow. Para solucionarlo, edita esta línea del archivo:

import tensorflow as tf

Por lo tanto, dice lo siguiente:

import tflite_runtime.interpreter as tflite

Y, luego, cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Dice lo siguiente:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora vuelve a ejecutar label_image.py. Listo. Ahora ejecutas modelos de TensorFlow Lite.

Más información