Python ile Linux tabanlı cihazlar için hızlı başlangıç kılavuzu

LiteRT'i Python ile kullanmak, Linux tabanlı ve yerleşik örneğin Raspberry Pi ve Edge TPU'lu mercan cihazlar çok sayıda çalışma var.

Bu sayfada, Python ile LiteRT modellerini çalıştırmaya nasıl başlayabileceğiniz gösterilmektedir yalnızca birkaç dakika. Tek ihtiyacınız olan, TensorFlow'a dönüştürülmüş bir TensorFlow modelidir Basit. (Henüz dönüştürülmüş bir modeliniz yoksa, için bir deneme oluşturun.)

LiteRT çalışma zamanı paketi hakkında

Python ile LiteRT modellerini hızlıca yürütmeye başlamak için LiteRT yorumcusuyla çalışmayı kolaylaştırır. Biz bu basitleştirilmiş Python paketini tflite_runtime olarak adlandırın.

tflite_runtime paketi, tam tensorflow boyutundan küçük bir miktardır pakete dahildir ve çıkarımları çalıştırmak için gerekli olan LiteRT (esas olarak Interpreter Python dersi. Bu küçük paket, tek yapmanız gereken .tflite modellerini daha verimli şekilde kullanın ve büyük TensorFlow kitaplığıyla disk alanı israfından kaçının.

Python için LiteRT'yi yükleme

Linux'a pip ile yükleyebilirsiniz:

python3 -m pip install tflite-runtime

Desteklenen platformlar

tflite-runtime Python tekerlekleri önceden üretilmiş ve bunlar için sağlanmıştır platformlar:

  • Linux armv7l (ör. Raspberry Pi 2, 3, 4 ve Zero 2 çalıştıran Raspberry Pi OS) 32 bit)
  • Linux aarch64 (ör. Debian ARM64 çalıştıran Raspberry Pi 3, 4)
  • Linux x86_64

LiteRT modellerini diğer platformlarda çalıştırmak istiyorsanız tam TensorFlow paketini kullanın veya tflite çalışma zamanı paketini kaynaktan derleyin.

Coral Edge TPU ile TensorFlow kullanıyorsanız Bunun yerine uygun Mercan kurulumu dokümanlarını uygulayın.

tflite_runtime kullanarak çıkarım çalıştırma

Interpreter öğesini tensorflow modülünden içe aktarmak yerine artık şunları yapmanız gerekiyor: tflite_runtime yolundan içe aktar

Örneğin, yukarıdaki paketi yükledikten sonra label_image.py dosyası olarak kaydedebilirsiniz. tensorflow kitaplığınız olmadığı için muhtemelen başarısız olacaktır yüklendi. Düzeltmek için dosyanın şu satırını düzenleyin:

import tensorflow as tf

Bunun yerine şöyle deniyor:

import tflite_runtime.interpreter as tflite

Ardından şu satırı değiştirin:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Yani şöyle deniyor:

interpreter = tflite.Interpreter(model_path=args.model_file)

Şimdi label_image.py komutunu tekrar çalıştırın. İşte bu kadar. Şu anda LiteRT'i yürütüyorsunuz modeller.

Daha fazla bilgi