يعد استخدام LiteRT مع Python أمرًا رائعًا للأجهزة المضمنة التي تستند إلى Linux، مثل Rspberry Pi الأجهزة المعرَّضة للشعاب المرجانية Edge TPU من بين العديد من العناصر الأخرى.
توضح هذه الصفحة كيف يمكنك البدء في تشغيل نماذج LiteRT باستخدام Python في بضع دقائق فقط. كل ما تحتاج إليه هو نموذج TensorFlow الذي تم تحويله إلى TensorFlow. بسيط (إذا لم يكن لديك نموذج تم تحويله حتى الآن، يمكنك التجربة باستخدام النموذج المقدم مع المثال الموضح أدناه).
لمحة عن حزمة وقت تشغيل LiteRT
للبدء بسرعة في تنفيذ نماذج LiteRT باستخدام Python، يمكنك تثبيت
فقط أداة الترجمة الفورية في LiteRT، بدلاً من جميع حزم TensorFlow. أر
لاستدعاء حزمة Python المبسطة tflite_runtime
.
حزمة tflite_runtime
هي كسر من حجم tensorflow
الكامل
وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام
LiteRT — في الأساس
Interpreter
فئة بايثون. تكون هذه الحزمة الصغيرة مثاليةً عندما يكون ما عليك سوى التنفيذ.
يمكنك استخدام نماذج .tflite
وتجنُّب إهدار مساحة القرص من خلال مكتبة TensorFlow الكبيرة.
تثبيت LiteRT للغة Python
يمكنك التثبيت على نظام التشغيل Linux باستخدام pip:
python3 -m pip install tflite-runtime
المنصّات المعتمدة
إنّ عجلات Python التي تبلغ سعتها tflite-runtime
مصمَّمة مسبقًا ويتم توفيرها
الأنظمة الأساسية:
- الإصدار 7l من Linux (على سبيل المثال، Raspberry Pi 2 و3 و4 وZero 2 يعمل بنظام التشغيل Raspberry Pi OS 32 بت)
- Linux aarch64 (على سبيل المثال، Raspberry Pi 3، 4 الذي يعمل بنظام Debian ARM64)
- Linux x86_64
إذا أردت تشغيل نماذج LiteRT على منصات أخرى، يجب استخدام حزمة TensorFlow الكاملة إنشاء حزمة tflite-runtime من المصدر
إذا كنت تستخدم TensorFlow مع حافظة Coral Edge TPU، يجب بدلاً من ذلك، اتّبِع مستندات إعداد ميزة Coral المناسبة.
تنفيذ استنتاج باستخدام tflite_runtime
بدلاً من استيراد Interpreter
من الوحدة tensorflow
، تحتاج الآن إلى:
استيراده من tflite_runtime
.
على سبيل المثال، بعد تثبيت الحزمة أعلاه، انسخ ملف
label_image.py
الملف. ستفشل (على الأرجح) بسبب عدم توفّر مكتبة tensorflow
لديك.
مثبت. لحلّ المشكلة، عدِّل هذا السطر من الملف:
import tensorflow as tf
إذًا، يكون النص هو:
import tflite_runtime.interpreter as tflite
ثم تغيير هذا السطر:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
والنص المكتوب هو:
interpreter = tflite.Interpreter(model_path=args.model_file)
الآن شغِّل label_image.py
مرة أخرى. هذا كل شيء! أنت الآن تنفِّذ LiteRT
النماذج.
مزيد من المعلومات
لمزيد من التفاصيل حول
Interpreter
API، يُرجى الاطّلاع على تحميل نموذج وتشغيله في Pythonإذا كان لديك جهاز Raspberry Pi، شاهِد سلسلة فيديوهات. حول كيفية تشغيل اكتشاف الكائنات على Raspberry Pi باستخدام LiteRT.
إذا كنت تستخدم مسرِّعة تقنية Coral ML، يُرجى مراجعة أمثلة على الشعاب المرجانية على GitHub
لتحويل نماذج TensorFlow الأخرى إلى LiteRT، اقرأ عن محول LiteRT:
إذا كنت تريد بناء عجلة
tflite_runtime
، يُرجى الاطّلاع على إنشاء حزمة عجلة Python باستخدام LiteRT