التشغيل السريع للأجهزة التي تعمل بنظام Linux باستخدام لغة بايثون

يُعدّ استخدام TensorFlow Lite مع Python طريقة رائعة للأجهزة المضمَّنة التي تعمل بنظام التشغيل Linux، مثل أجهزة Raspberry Pi وأجهزة Coral مع Edge TPU وغيرها الكثير.

توضح هذه الصفحة كيف يمكنك البدء في تشغيل نماذج TensorFlow Lite باستخدام Python في بضع دقائق فقط. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite. (إذا لم يكن لديك نموذج تم تحويله حتى الآن، يمكنك التجربة باستخدام النموذج المتوفر مع المثال المرتبط أدناه).

لمحة عن حزمة وقت التشغيل TensorFlow Lite

للبدء بسرعة في تنفيذ نماذج TensorFlow Lite باستخدام لغة البايثون، يمكنك تثبيت مترجم TensorFlow Lite فقط، بدلًا من جميع حزم TensorFlow. ونطلق على حزمة بايثون المبسطة هذه tflite_runtime.

حزمة tflite_runtime هي جزء من حجم حزمة tensorflow الكاملة وتشمل الحدّ الأدنى من الرمز البرمجي المطلوب لإجراء الاستنتاجات باستخدام TensorFlow Lite، وهي فئة Interpreter في بايثون في المقام الأول. تكون هذه الحزمة الصغيرة مثالية عندما يكون كل ما عليك فعله هو تنفيذ نماذج .tflite وتجنُّب إهدار مساحة القرص في مكتبة TensorFlow الكبيرة.

تثبيت TensorFlow Lite للغة Python

يمكنك التثبيت على نظام التشغيل Linux باستخدام pip:

python3 -m pip install tflite-runtime

المنصّات المعتمدة

عجلات بايثون tflite-runtime منشأة مسبقًا وتتوفر فيها الأنظمة الأساسية التالية:

  • نظام التشغيل Linux Armv7l (على سبيل المثال، Raspberry Pi 2 و3 و4 و صفر 2 مع نظام التشغيل Raspberry Pi OS 32 بت)
  • Linux arc64 (على سبيل المثال، Raspberry Pi 3 أو 4 يعمل بـ Debian ARM64)
  • Linux x86_64

إذا أردت تشغيل نماذج TensorFlow Lite على منصات أخرى، عليك إمّا استخدام حزمة TensorFlow الكاملة أو إنشاء حزمة tflite-runtime من المصدر.

إذا كنت تستخدم TensorFlow مع Coral Edge TPU، عليك بدلاً من ذلك اتّباع مستندات إعداد Coral المناسبة.

إجراء استنتاج باستخدام tflite_runtime

بدلاً من استيراد Interpreter من الوحدة النمطية tensorflow، عليك الآن استيرادها من tflite_runtime.

على سبيل المثال، بعد تثبيت الحزمة أعلاه، انسخ ملف label_image.py وشغِّله. سيتعذّر إتمامها (على الأرجح) لأنّك لم تثبّت مكتبة tensorflow على جهازك. لحلّ هذه المشكلة، عدِّل هذا السطر من الملف:

import tensorflow as tf

ولذلك يُقرأ بدلاً من ذلك ما يلي:

import tflite_runtime.interpreter as tflite

ثم قم بتغيير هذا السطر:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

بحيث يكون المكتوب:

interpreter = tflite.Interpreter(model_path=args.model_file)

شغِّل label_image.py مرة أخرى الآن. أكملت هذه الخطوة. أنت الآن تنفذ نماذج TensorFlow Lite.

مزيد من المعلومات