Guía de inicio rápido para dispositivos basados en Linux con Python

Usar LiteRT con Python es excelente para dispositivos incorporados basados en Linux, como Raspberry Pi y Dispositivos de Coral con Edge TPU, entre muchos otros.

Esta página muestra cómo puedes comenzar a ejecutar modelos LiteRT con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite: (Si aún no has convertido un modelo, puedes prueba con el modelo proporcionado en el ejemplo cuyo vínculo aparece a continuación).

Información acerca del paquete de entorno de ejecución de LiteRT

Para comenzar a ejecutar rápidamente modelos LiteRT con Python, puedes instalar solo con el intérprete LiteRT, en lugar de todos los paquetes de TensorFlow. Mié llama a este paquete simplificado de Python tflite_runtime.

El paquete tflite_runtime es una fracción del tamaño del tensorflow completo e incluye el código mínimo necesario para ejecutar inferencias con LiteRT, principalmente el Interpreter Python. Este pequeño paquete es ideal cuando lo único que quieres hacer es ejecutar .tflite y evita desperdiciar espacio en el disco con la gran biblioteca de TensorFlow.

Instala LiteRT para Python

Puedes instalarlo en Linux con pip:

python3 -m pip install tflite-runtime

Plataformas compatibles

Las ruedas de Python de tflite-runtime están previamente compiladas y se proporcionan para estas plataformas:

  • Linux armv7l (por ejemplo, Raspberry Pi 2, 3, 4 y Zero 2 que ejecutan el SO Raspberry Pi) 32 bits)
  • Linux aarch64 (p.ej., Raspberry Pi 3, 4 con Debian ARM64)
  • Linux x86_64

Si quieres ejecutar modelos LiteRT en otras plataformas, debes realizar una de las siguientes acciones: usar el paquete completo de TensorFlow, o compilar el paquete tflite-runtime a partir del código fuente.

Si usas TensorFlow con Coral Edge TPU, deberías En su lugar, sigue la documentación de configuración de Coral adecuada.

Ejecuta una inferencia con tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow, ahora debes impórtalo desde tflite_runtime.

Por ejemplo, después de instalar el paquete anterior, copia y ejecuta el label_image.py . Es probable que falle porque no tienes la biblioteca tensorflow esté instalado. Para solucionarlo, edita esta línea del archivo:

import tensorflow as tf

En su lugar, dice lo siguiente:

import tflite_runtime.interpreter as tflite

Luego, cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Dice lo siguiente:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora vuelve a ejecutar label_image.py. Eso es todo. Ahora estás ejecutando LiteRT e implementar modelos automáticamente.

Más información