يُعدّ استخدام TensorFlow Lite مع Python طريقة رائعة للأجهزة المضمَّنة التي تعمل بنظام التشغيل Linux، مثل أجهزة Raspberry Pi وأجهزة Coral مع Edge TPU وغيرها الكثير.
توضح هذه الصفحة كيف يمكنك البدء في تشغيل نماذج TensorFlow Lite باستخدام Python في بضع دقائق فقط. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite. (إذا لم يكن لديك نموذج تم تحويله حتى الآن، يمكنك التجربة باستخدام النموذج المتوفر مع المثال المرتبط أدناه).
لمحة عن حزمة وقت التشغيل TensorFlow Lite
للبدء بسرعة في تنفيذ نماذج TensorFlow Lite باستخدام لغة البايثون، يمكنك تثبيت مترجم TensorFlow Lite فقط، بدلًا من جميع حزم TensorFlow. ونطلق على حزمة بايثون المبسطة هذه tflite_runtime
.
حزمة tflite_runtime
هي جزء من حجم حزمة tensorflow
الكاملة وتشمل الحدّ الأدنى من الرمز البرمجي المطلوب لإجراء الاستنتاجات باستخدام TensorFlow Lite، وهي فئة Interpreter
في بايثون في المقام الأول. تكون هذه الحزمة الصغيرة مثالية عندما يكون كل ما عليك فعله هو تنفيذ نماذج
.tflite
وتجنُّب إهدار مساحة القرص في مكتبة TensorFlow الكبيرة.
تثبيت TensorFlow Lite للغة Python
يمكنك التثبيت على نظام التشغيل Linux باستخدام pip:
python3 -m pip install tflite-runtime
المنصّات المعتمدة
عجلات بايثون tflite-runtime
منشأة مسبقًا وتتوفر فيها الأنظمة الأساسية التالية:
- نظام التشغيل Linux Armv7l (على سبيل المثال، Raspberry Pi 2 و3 و4 و صفر 2 مع نظام التشغيل Raspberry Pi OS 32 بت)
- Linux arc64 (على سبيل المثال، Raspberry Pi 3 أو 4 يعمل بـ Debian ARM64)
- Linux x86_64
إذا أردت تشغيل نماذج TensorFlow Lite على منصات أخرى، عليك إمّا استخدام حزمة TensorFlow الكاملة أو إنشاء حزمة tflite-runtime من المصدر.
إذا كنت تستخدم TensorFlow مع Coral Edge TPU، عليك بدلاً من ذلك اتّباع مستندات إعداد Coral المناسبة.
إجراء استنتاج باستخدام tflite_runtime
بدلاً من استيراد Interpreter
من الوحدة النمطية tensorflow
، عليك الآن استيرادها من tflite_runtime
.
على سبيل المثال، بعد تثبيت الحزمة أعلاه، انسخ ملف
label_image.py
وشغِّله. سيتعذّر إتمامها (على الأرجح) لأنّك لم تثبّت مكتبة tensorflow
على جهازك. لحلّ هذه المشكلة، عدِّل هذا السطر من الملف:
import tensorflow as tf
ولذلك يُقرأ بدلاً من ذلك ما يلي:
import tflite_runtime.interpreter as tflite
ثم قم بتغيير هذا السطر:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
بحيث يكون المكتوب:
interpreter = tflite.Interpreter(model_path=args.model_file)
شغِّل label_image.py
مرة أخرى الآن. أكملت هذه الخطوة. أنت الآن تنفذ نماذج
TensorFlow Lite.
مزيد من المعلومات
لمزيد من التفاصيل حول واجهة برمجة التطبيقات
Interpreter
، يمكنك الاطّلاع على المقالة تحميل نموذج وتشغيله في Python.إذا كان لديك جهاز Raspberry Pi، يمكنك مشاهدة سلسلة فيديوهات حول كيفية رصد العناصر على جهاز Raspberry Pi باستخدام TensorFlow Lite.
وإذا كنت تستخدم مسرِّعًا لاستخدام Coral ML، يمكنك الاطّلاع على أمثلة عن الشعاب المرجانية على GitHub.
لتحويل نماذج TensorFlow الأخرى إلى TensorFlow Lite، يمكنك الاطّلاع على أداة تحويل TensorFlow Lite.
إذا أردت إنشاء عجلة
tflite_runtime
، يمكنك الاطّلاع على إنشاء حزمة TensorFlow Lite Python Wheel.