استفاده از LiteRT با پایتون برای دستگاههای تعبیهشده مبتنی بر لینوکس، مانند دستگاههای Raspberry Pi و Coral با Edge TPU و بسیاری دیگر، عالی است.
این صفحه نشان می دهد که چگونه می توانید مدل های LiteRT را با پایتون تنها در چند دقیقه شروع کنید. تنها چیزی که نیاز دارید یک مدل TensorFlow است که به TensorFlow Lite تبدیل شده است . (اگر هنوز مدلی تبدیل نکرده اید، می توانید با استفاده از مدل ارائه شده با مثال پیوند زیر آزمایش کنید.)
درباره بسته اجرای LiteRT
برای شروع سریع اجرای مدلهای LiteRT با پایتون، میتوانید به جای همه بستههای TensorFlow، فقط مفسر LiteRT را نصب کنید. ما این بسته پایتون ساده شده را tflite_runtime
می نامیم.
بسته tflite_runtime
کسری به اندازه بسته tensorflow
کامل است و شامل حداقل کد مورد نیاز برای اجرای استنتاجها با LiteRT است – در درجه اول کلاس Interpreter
Python. این بسته کوچک زمانی ایده آل است که تنها کاری که می خواهید انجام دهید اجرای مدل های .tflite
و جلوگیری از هدر رفتن فضای دیسک با کتابخانه بزرگ TensorFlow است.
LiteRT را برای پایتون نصب کنید
می توانید با pip روی لینوکس نصب کنید:
python3 -m pip install tflite-runtime
پلتفرم های پشتیبانی شده
چرخهای پایتون tflite-runtime
برای این پلتفرمها از پیش ساخته و ارائه شدهاند:
- Linux armv7l (به عنوان مثال Raspberry Pi 2، 3، 4 و Zero 2 با سیستم عامل Raspberry Pi 32 بیتی)
- Linux aarch64 (به عنوان مثال Raspberry Pi 3, 4 در حال اجرا Debian ARM64)
- لینوکس x86_64
اگر میخواهید مدلهای LiteRT را روی پلتفرمهای دیگر اجرا کنید، باید از بسته کامل TensorFlow استفاده کنید یا بسته tflite-runtime را از منبع بسازید .
اگر از TensorFlow با Coral Edge TPU استفاده میکنید، در عوض باید از مستندات راهاندازی Coral مناسب پیروی کنید.
یک استنتاج را با استفاده از tflite_runtime اجرا کنید
به جای وارد کردن Interpreter
از ماژول tensorflow
، اکنون باید آن را از tflite_runtime
وارد کنید.
به عنوان مثال، پس از نصب بسته بالا، فایل label_image.py
کپی و اجرا کنید. (احتمالا) به دلیل اینکه کتابخانه tensorflow
نصب نکرده اید، شکست خواهد خورد. برای رفع آن، این خط فایل را ویرایش کنید:
import tensorflow as tf
بنابراین در عوض میخواند:
import tflite_runtime.interpreter as tflite
و سپس این خط را تغییر دهید:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
پس میخواند:
interpreter = tflite.Interpreter(model_path=args.model_file)
حالا دوباره label_image.py
اجرا کنید. همین! شما اکنون در حال اجرای مدل های LiteRT هستید.
بیشتر بدانید
برای جزئیات بیشتر در مورد
Interpreter
API، بارگذاری و اجرای یک مدل در پایتون را بخوانید.اگر Raspberry Pi دارید، یک سری ویدیویی در مورد نحوه اجرای تشخیص اشیا در Raspberry Pi با استفاده از LiteRT را بررسی کنید.
اگر از شتاب دهنده Coral ML استفاده می کنید، نمونه های Coral را در GitHub بررسی کنید.
برای تبدیل سایر مدل های TensorFlow به LiteRT، در مورد تبدیل LiteRT بخوانید.
اگر می خواهید چرخ
tflite_runtime
بسازید، بسته Build LiteRT Python Wheel را بخوانید.