L'utilizzo di TensorFlow Lite con Python è ideale per i dispositivi incorporati basati su Linux, come Raspber Pi e dispositivi corallo con Edge TPU, tra molti altri.
Questa pagina mostra come iniziare a eseguire modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò di cui hai bisogno è un modello TensorFlow convertito in TensorFlow Lite. Se non hai ancora un modello convertito, puoi fare un esperimento utilizzando il modello fornito con l'esempio al link riportato di seguito.
Informazioni sul pacchetto di runtime TensorFlow Lite
Per avviare rapidamente l'esecuzione di modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, anziché tutti i pacchetti TensorFlow. Questo pacchetto Python semplificato
viene chiamato tflite_runtime
.
Il pacchetto tflite_runtime
è una frazione della dimensione del pacchetto tensorflow
completo e include il codice minimo necessario per eseguire inferenze con TensorFlow Lite, principalmente la classe Python Interpreter
. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire i modelli .tflite
ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.
Installa TensorFlow Lite per Python
Puoi eseguire l'installazione su Linux con pip:
python3 -m pip install tflite-runtime
Piattaforme supportate
Le ruote Python tflite-runtime
sono predefinite e fornite per queste
piattaforme:
- Linux armv7l (ad es. Raspber Pi 2, 3, 4 e Zero 2 con Raspber Pi OS a 32 bit)
- Linux aarch64 (ad es. Raspber Pi 3, 4 con Debian ARM64)
- Linux x86_64
Se vuoi eseguire modelli TensorFlow Lite su altre piattaforme, devi utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime dal codice sorgente.
Se utilizzi TensorFlow con Coral Edge TPU, segui invece la documentazione relativa alla configurazione di Coral appropriata.
Esegui un'inferenza utilizzando tflite_runtime
Anziché importare Interpreter
dal modulo tensorflow
, ora devi importarlo da tflite_runtime
.
Ad esempio, dopo aver installato il pacchetto riportato sopra, copia ed esegui il file label_image.py
. Potrebbe (probabilmente) avere un errore perché non hai installato la libreria tensorflow
. Per risolvere il problema, modifica questa riga del file:
import tensorflow as tf
Quindi viene visualizzato come segue:
import tflite_runtime.interpreter as tflite
Poi modifica questa riga:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Quindi si legge:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ora esegui di nuovo label_image.py
. È tutto. Ora stai eseguendo i modelli
TensorFlow Lite.
Scopri di più
Per maggiori dettagli sull'API
Interpreter
, leggi Caricare ed eseguire un modello in Python.Se hai un Raspber Pi, guarda una serie di video su come eseguire il rilevamento di oggetti su Raspber Pi utilizzando TensorFlow Lite.
Se utilizzi un acceleratore Coral ML, consulta gli esempi di coralli su GitHub.
Per convertire altri modelli TensorFlow in TensorFlow Lite, leggi informazioni sul convertitore di TensorFlow Lite.
Se vuoi creare una wheel
tflite_runtime
, leggi Build TensorFlow Lite Python Wheel Package