O uso do TensorFlow Lite com Python é ótimo para dispositivos incorporados baseados no Linux, como Raspberry Pi e dispositivos Coral com Edge TPU, entre muitos outros.
Nesta página, mostramos como começar a executar modelos do TensorFlow Lite com Python em apenas alguns minutos. Tudo o que você precisa é de um modelo do TensorFlow convertido em TensorFlow Lite. Se você ainda não tem um modelo convertido, faça testes usando o modelo fornecido com o exemplo no link abaixo.
Sobre o pacote de ambiente de execução do TensorFlow Lite
Para iniciar rapidamente a execução de modelos do TensorFlow Lite com Python, instale
apenas o intérprete do TensorFlow Lite, em vez de todos os pacotes do TensorFlow. Chamamos
esse pacote do Python simplificado tflite_runtime
.
O pacote tflite_runtime
é uma fração do tamanho do pacote tensorflow
completo e inclui o código mínimo necessário para executar inferências com o TensorFlow Lite, principalmente a classe Python Interpreter
. Esse pequeno pacote é ideal quando você só quer executar
modelos de .tflite
e evitar o desperdício de espaço em disco com a grande biblioteca do TensorFlow.
Instalar o TensorFlow Lite para Python
Você pode instalar no Linux com pip:
python3 -m pip install tflite-runtime
Plataformas compatíveis
As rodas do Python tflite-runtime
são pré-criadas e fornecidas para estas
plataformas:
- Linux armv7l (por exemplo, Raspberry Pi 2, 3, 4 e Zero 2 com o Raspberry Pi OS de 32 bits)
- Linux aarch64 (por exemplo, Raspberry Pi 3, 4 executando o Debian ARM64)
- Linux x86_64
Se você quiser executar modelos do TensorFlow Lite em outras plataformas, use o pacote completo do TensorFlow ou crie o pacote do ambiente de execução do tflite a partir da origem.
Se você estiver usando o TensorFlow com o Coral Edge TPU, siga a documentação de configuração do Coral (link em inglês) adequada.
Executar uma inferência usando tflite_runtime
Em vez de importar Interpreter
do módulo tensorflow
, agora você precisa
importá-lo de tflite_runtime
.
Por exemplo, depois de instalar o pacote acima, copie e execute o
arquivo
label_image.py
. Ele provavelmente falhará porque você não tem a biblioteca tensorflow
instalada. Para corrigir o problema, edite esta linha do arquivo:
import tensorflow as tf
Em vez disso, lê-se:
import tflite_runtime.interpreter as tflite
E depois altere esta linha:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Assim, lê-se:
interpreter = tflite.Interpreter(model_path=args.model_file)
Agora, execute label_image.py
novamente. Pronto! Agora você está executando modelos
do TensorFlow Lite.
Saiba mais
Para mais detalhes sobre a API
Interpreter
, leia Carregar e executar um modelo em Python.Se você tem um Raspberry Pi, confira uma série de vídeos sobre como executar a detecção de objetos no Raspberry Pi usando o TensorFlow Lite.
Se você estiver usando um acelerador de ML da Coral, confira os exemplos do Coral no GitHub (link em inglês).
Para converter outros modelos do TensorFlow para o TensorFlow Lite, leia sobre o Conversor do TensorFlow Lite.
Para criar a roda
tflite_runtime
, leia Criar pacote Wheel do Python do TensorFlow Lite.