Guida rapida per i dispositivi basati su Linux con Python

L'utilizzo di LiteRT con Python è ottimo per i dispositivi incorporati basati su Linux, come Raspberry Pi e Dispositivi coralli con Edge TPU, e non solo.

Questa pagina mostra come iniziare a eseguire modelli LiteRT con Python solo per pochi minuti. Ti serve solo un modello TensorFlow convertito in TensorFlow Lite. Se non hai ancora convertito un modello, puoi utilizzando il modello fornito nell'esempio riportato di seguito.)

Informazioni sul pacchetto di runtime LiteRT

Per avviare rapidamente l'esecuzione dei modelli LiteRT con Python, puoi installare solo l'interprete LiteRT, invece di tutti i pacchetti TensorFlow. Me chiama questo pacchetto Python semplificato tflite_runtime.

Il pacchetto tflite_runtime è una frazione delle dimensioni del pacchetto tensorflow completo e include il codice minimo bare necessario per eseguire le inferenze LiteRT, principalmente Interpreter: Python. Questo piccolo pacchetto è ideale per eseguire .tflite di modelli ed evita di sprecare spazio su disco con la vasta libreria TensorFlow.

Installa LiteRT per Python

Puoi installare su Linux con pip:

python3 -m pip install tflite-runtime

Piattaforme supportate

Le ruote Python tflite-runtime sono predefinite e fornite per questi piattaforme:

  • Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi 32 bit)
  • Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
  • Linux x86_64

Se vuoi eseguire modelli LiteRT su altre piattaforme, devi: utilizza il pacchetto TensorFlow completo oppure creare il pacchetto tflite-runtime dall'origine.

Se utilizzi TensorFlow con la TPU Coral Edge TPU, segui invece la documentazione sulla configurazione di Corallo appropriata.

esegui un'inferenza utilizzando tflite_runtime

Anziché importare Interpreter dal modulo tensorflow, ora devi importalo da tflite_runtime.

Ad esempio, dopo aver installato il pacchetto precedente, copia ed esegui il label_image.py . L'operazione (probabilmente) non riuscirà perché non hai la libreria tensorflow installato. Per correggerlo, modifica questa riga del file:

import tensorflow as tf

Quindi legge:

import tflite_runtime.interpreter as tflite

Quindi modifica questa riga:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Ecco cosa dice:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ora esegui di nuovo label_image.py. È tutto. Stai eseguendo LiteRT di grandi dimensioni.

Scopri di più