LiteRT'i Python ile kullanmak, Linux tabanlı ve yerleşik örneğin Raspberry Pi ve Edge TPU'lu mercan cihazlar çok sayıda çalışma var.
Bu sayfada, Python ile LiteRT modellerini çalıştırmaya nasıl başlayabileceğiniz gösterilmektedir yalnızca birkaç dakika. Tek ihtiyacınız olan, TensorFlow'a dönüştürülmüş bir TensorFlow modelidir Basit. (Henüz dönüştürülmüş bir modeliniz yoksa, için bir deneme oluşturun.)
LiteRT çalışma zamanı paketi hakkında
Python ile LiteRT modellerini hızlıca yürütmeye başlamak için
LiteRT yorumcusuyla çalışmayı kolaylaştırır. Biz
bu basitleştirilmiş Python paketini tflite_runtime
olarak adlandırın.
tflite_runtime
paketi, tam tensorflow
boyutundan küçük bir miktardır
pakete dahildir ve çıkarımları çalıştırmak için gerekli olan
LiteRT (esas olarak
Interpreter
Python dersi. Bu küçük paket, tek yapmanız gereken
.tflite
modellerini daha verimli şekilde kullanın ve büyük TensorFlow kitaplığıyla disk alanı israfından kaçının.
Python için LiteRT'yi yükleme
Linux'a pip ile yükleyebilirsiniz:
python3 -m pip install tflite-runtime
Desteklenen platformlar
tflite-runtime
Python tekerlekleri önceden üretilmiş ve bunlar için sağlanmıştır
platformlar:
- Linux armv7l (ör. Raspberry Pi 2, 3, 4 ve Zero 2 çalıştıran Raspberry Pi OS) 32 bit)
- Linux aarch64 (ör. Debian ARM64 çalıştıran Raspberry Pi 3, 4)
- Linux x86_64
LiteRT modellerini diğer platformlarda çalıştırmak istiyorsanız tam TensorFlow paketini kullanın veya tflite çalışma zamanı paketini kaynaktan derleyin.
Coral Edge TPU ile TensorFlow kullanıyorsanız Bunun yerine uygun Mercan kurulumu dokümanlarını uygulayın.
tflite_runtime kullanarak çıkarım çalıştırma
Interpreter
öğesini tensorflow
modülünden içe aktarmak yerine artık şunları yapmanız gerekiyor:
tflite_runtime
yolundan içe aktar
Örneğin, yukarıdaki paketi yükledikten sonra
label_image.py
dosyası olarak kaydedebilirsiniz. tensorflow
kitaplığınız olmadığı için muhtemelen başarısız olacaktır
yüklendi. Düzeltmek için dosyanın şu satırını düzenleyin:
import tensorflow as tf
Bunun yerine şöyle deniyor:
import tflite_runtime.interpreter as tflite
Ardından şu satırı değiştirin:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Yani şöyle deniyor:
interpreter = tflite.Interpreter(model_path=args.model_file)
Şimdi label_image.py
komutunu tekrar çalıştırın. İşte bu kadar. Şu anda LiteRT'i yürütüyorsunuz
modeller.
Daha fazla bilgi
Interpreter
API hakkında daha fazla bilgi için şu makaleyi okuyun: Python'da bir model yükleyip çalıştırın.Raspberry Pi'nız varsa bir video serisine göz atın. LiteRT kullanarak Raspberry Pi'de nesne algılamanın nasıl çalıştırılacağı hakkında daha fazla bilgi edinin.
Coral ML hızlandırıcı kullanıyorsanız GitHub'daki mercan örnekleri.
Diğer TensorFlow modellerini LiteRT'e dönüştürmek için LiteRT Dönüştürücüsü.
tflite_runtime
tekerleği yapmak istiyorsanız şunu okuyun: LiRT Python Tekerlek Paketi Derleme