Guia de início rápido para dispositivos baseados em Linux com Python

Usar o LiteRT com Python é ótimo para dispositivos incorporados baseados em Linux, como Raspberry Pi e Dispositivos Coral com Edge TPU, entre muitas outras.

Esta página mostra como começar a executar modelos LiteRT com Python em apenas alguns minutos. Você só precisa de um modelo do TensorFlow convertido em TensorFlow Lite. Se você ainda não converteu um modelo, usando o modelo fornecido com o exemplo no link abaixo.

Sobre o pacote de tempo de execução LiteRT

Para começar a executar modelos LiteRT com Python rapidamente, instale apenas o intérprete LiteRT, e não todos os pacotes do TensorFlow. Qa chame este pacote simplificado do Python tflite_runtime.

O pacote tflite_runtime é uma fração do tamanho do pacote tensorflow completo e inclui o código mínimo necessário para executar inferências com LiteRT – principalmente a Interpreter do Python. Este pequeno pacote é ideal quando tudo o que você quer fazer é executar .tflite e evite o desperdício de espaço em disco com a grande biblioteca do TensorFlow.

Instalar o LiteRT para Python

Você pode instalar no Linux com pip:

python3 -m pip install tflite-runtime

Plataformas compatíveis

As rodas Python tflite-runtime são pré-criadas e fornecidas para essas plataformas:

  • Linux armv7l (por exemplo, Raspberry Pi 2, 3, 4 e Zero 2 com o SO Raspberry Pi 32 bits)
  • Linux aarch64 (por exemplo, Raspberry Pi 3, 4 com Debian ARM64)
  • Linux x86_64

Se você quiser executar modelos LiteRT em outras plataformas, faça o seguinte: usar o pacote completo do TensorFlow; criar o pacote tflite-runtime a partir da origem.

Se estiver usando o TensorFlow com a Coral Edge TPU, recomendamos Siga a documentação de configuração do Coral adequada.

Executar uma inferência usando tflite_runtime

Em vez de importar Interpreter do módulo tensorflow, agora você precisa: importá-la de tflite_runtime.

Por exemplo, depois de instalar o pacote acima, copie e execute o label_image.py . Provavelmente, ele vai falhar porque você não tem a biblioteca tensorflow instalado. Para corrigi-lo, edite esta linha do arquivo:

import tensorflow as tf

Portanto, em vez disso, lê-se:

import tflite_runtime.interpreter as tflite

Em seguida, altere esta linha:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Então, lê-se:

interpreter = tflite.Interpreter(model_path=args.model_file)

Agora, execute label_image.py novamente. Pronto! Você está executando a LiteRT de modelos de machine learning.

Saiba mais