L'utilizzo di LiteRT con Python è ottimo per i dispositivi incorporati basati su Linux, come Raspberry Pi e Dispositivi coralli con Edge TPU, e non solo.
Questa pagina mostra come iniziare a eseguire modelli LiteRT con Python solo per pochi minuti. Ti serve solo un modello TensorFlow convertito in TensorFlow Lite. Se non hai ancora convertito un modello, puoi utilizzando il modello fornito nell'esempio riportato di seguito.)
Informazioni sul pacchetto di runtime LiteRT
Per avviare rapidamente l'esecuzione dei modelli LiteRT con Python, puoi installare
solo l'interprete LiteRT, invece di tutti i pacchetti TensorFlow. Me
chiama questo pacchetto Python semplificato tflite_runtime
.
Il pacchetto tflite_runtime
è una frazione delle dimensioni del pacchetto tensorflow
completo
e include il codice minimo bare necessario per eseguire le inferenze
LiteRT, principalmente
Interpreter
:
Python. Questo piccolo pacchetto è ideale per eseguire
.tflite
di modelli ed evita di sprecare spazio su disco con la vasta libreria TensorFlow.
Installa LiteRT per Python
Puoi installare su Linux con pip:
python3 -m pip install tflite-runtime
Piattaforme supportate
Le ruote Python tflite-runtime
sono predefinite e fornite per questi
piattaforme:
- Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi 32 bit)
- Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
- Linux x86_64
Se vuoi eseguire modelli LiteRT su altre piattaforme, devi: utilizza il pacchetto TensorFlow completo oppure creare il pacchetto tflite-runtime dall'origine.
Se utilizzi TensorFlow con la TPU Coral Edge TPU, segui invece la documentazione sulla configurazione di Corallo appropriata.
esegui un'inferenza utilizzando tflite_runtime
Anziché importare Interpreter
dal modulo tensorflow
, ora devi
importalo da tflite_runtime
.
Ad esempio, dopo aver installato il pacchetto precedente, copia ed esegui il
label_image.py
. L'operazione (probabilmente) non riuscirà perché non hai la libreria tensorflow
installato. Per correggerlo, modifica questa riga del file:
import tensorflow as tf
Quindi legge:
import tflite_runtime.interpreter as tflite
Quindi modifica questa riga:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Ecco cosa dice:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ora esegui di nuovo label_image.py
. È tutto. Stai eseguendo LiteRT
di grandi dimensioni.
Scopri di più
Per maggiori dettagli sull'API
Interpreter
, leggi Carica ed esegui un modello in Python.Se hai un Raspberry Pi, guarda una serie di video su come eseguire il rilevamento degli oggetti su Raspberry Pi utilizzando LiteRT.
Se utilizzi un acceleratore Coral ML, dai un'occhiata alla Esempi di coralli su GitHub.
Per convertire altri modelli TensorFlow in LiteRT, scopri di più sul Convertitore LiteRT.
Se vuoi creare una ruota
tflite_runtime
, leggi Crea un pacchetto LiteRT Python Wheel