Usar o LiteRT com Python é ótimo para dispositivos incorporados baseados em Linux, como Raspberry Pi e Dispositivos Coral com Edge TPU, entre muitas outras.
Esta página mostra como começar a executar modelos LiteRT com Python em apenas alguns minutos. Você só precisa de um modelo do TensorFlow convertido em TensorFlow Lite. Se você ainda não converteu um modelo, usando o modelo fornecido com o exemplo no link abaixo.
Sobre o pacote de tempo de execução LiteRT
Para começar a executar modelos LiteRT com Python rapidamente, instale
apenas o intérprete LiteRT, e não todos os pacotes do TensorFlow. Qa
chame este pacote simplificado do Python tflite_runtime
.
O pacote tflite_runtime
é uma fração do tamanho do pacote tensorflow
completo
e inclui o código mínimo necessário para executar inferências com
LiteRT – principalmente a
Interpreter
do Python. Este pequeno pacote é ideal quando tudo o que você quer fazer é executar
.tflite
e evite o desperdício de espaço em disco com a grande biblioteca do TensorFlow.
Instalar o LiteRT para Python
Você pode instalar no Linux com pip:
python3 -m pip install tflite-runtime
Plataformas compatíveis
As rodas Python tflite-runtime
são pré-criadas e fornecidas para essas
plataformas:
- Linux armv7l (por exemplo, Raspberry Pi 2, 3, 4 e Zero 2 com o SO Raspberry Pi 32 bits)
- Linux aarch64 (por exemplo, Raspberry Pi 3, 4 com Debian ARM64)
- Linux x86_64
Se você quiser executar modelos LiteRT em outras plataformas, faça o seguinte: usar o pacote completo do TensorFlow; criar o pacote tflite-runtime a partir da origem.
Se estiver usando o TensorFlow com a Coral Edge TPU, recomendamos Siga a documentação de configuração do Coral adequada.
Executar uma inferência usando tflite_runtime
Em vez de importar Interpreter
do módulo tensorflow
, agora você precisa:
importá-la de tflite_runtime
.
Por exemplo, depois de instalar o pacote acima, copie e execute o
label_image.py
. Provavelmente, ele vai falhar porque você não tem a biblioteca tensorflow
instalado. Para corrigi-lo, edite esta linha do arquivo:
import tensorflow as tf
Portanto, em vez disso, lê-se:
import tflite_runtime.interpreter as tflite
Em seguida, altere esta linha:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Então, lê-se:
interpreter = tflite.Interpreter(model_path=args.model_file)
Agora, execute label_image.py
novamente. Pronto! Você está executando a LiteRT
de modelos de machine learning.
Saiba mais
Para saber mais sobre a API
Interpreter
, leia Carregar e executar um modelo em Python.Se você tem um Raspberry Pi, confira esta série de vídeos sobre como executar a detecção de objetos no Raspberry Pi usando o LiteRT.
Se você usa um acelerador de ML da Coral, confira o Exemplos da Coral no GitHub (em inglês).
Para converter outros modelos do TensorFlow para LiteRT, leia sobre a Conversor de LiteRT (em inglês).
Se você quiser criar a roda
tflite_runtime
, leia Criar o pacote LiteRT Python Wheel