التشغيل السريع للأجهزة التي تعمل بنظام Linux باستخدام لغة بايثون

يعد استخدام LiteRT مع Python أمرًا رائعًا للأجهزة المضمنة التي تستند إلى Linux، مثل Rspberry Pi الأجهزة المعرَّضة للشعاب المرجانية Edge TPU من بين العديد من العناصر الأخرى.

توضح هذه الصفحة كيف يمكنك البدء في تشغيل نماذج LiteRT باستخدام Python في بضع دقائق فقط. كل ما تحتاج إليه هو نموذج TensorFlow الذي تم تحويله إلى TensorFlow. بسيط (إذا لم يكن لديك نموذج تم تحويله حتى الآن، يمكنك التجربة باستخدام النموذج المقدم مع المثال الموضح أدناه).

لمحة عن حزمة وقت تشغيل LiteRT

للبدء بسرعة في تنفيذ نماذج LiteRT باستخدام Python، يمكنك تثبيت فقط أداة الترجمة الفورية في LiteRT، بدلاً من جميع حزم TensorFlow. أر لاستدعاء حزمة Python المبسطة tflite_runtime.

حزمة tflite_runtime هي كسر من حجم tensorflow الكامل وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام LiteRT — في الأساس Interpreter فئة بايثون. تكون هذه الحزمة الصغيرة مثاليةً عندما يكون ما عليك سوى التنفيذ. يمكنك استخدام نماذج .tflite وتجنُّب إهدار مساحة القرص من خلال مكتبة TensorFlow الكبيرة.

تثبيت LiteRT للغة Python

يمكنك التثبيت على نظام التشغيل Linux باستخدام pip:

python3 -m pip install tflite-runtime

المنصّات المعتمدة

إنّ عجلات Python التي تبلغ سعتها tflite-runtime مصمَّمة مسبقًا ويتم توفيرها الأنظمة الأساسية:

  • الإصدار 7l من Linux (على سبيل المثال، Raspberry Pi 2 و3 و4 وZero 2 يعمل بنظام التشغيل Raspberry Pi OS 32 بت)
  • Linux aarch64 (على سبيل المثال، Raspberry Pi 3، 4 الذي يعمل بنظام Debian ARM64)
  • Linux x86_64

إذا أردت تشغيل نماذج LiteRT على منصات أخرى، يجب استخدام حزمة TensorFlow الكاملة إنشاء حزمة tflite-runtime من المصدر

إذا كنت تستخدم TensorFlow مع حافظة Coral Edge TPU، يجب بدلاً من ذلك، اتّبِع مستندات إعداد ميزة Coral المناسبة.

تنفيذ استنتاج باستخدام tflite_runtime

بدلاً من استيراد Interpreter من الوحدة tensorflow، تحتاج الآن إلى: استيراده من tflite_runtime.

على سبيل المثال، بعد تثبيت الحزمة أعلاه، انسخ ملف label_image.py الملف. ستفشل (على الأرجح) بسبب عدم توفّر مكتبة tensorflow لديك. مثبت. لحلّ المشكلة، عدِّل هذا السطر من الملف:

import tensorflow as tf

إذًا، يكون النص هو:

import tflite_runtime.interpreter as tflite

ثم تغيير هذا السطر:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

والنص المكتوب هو:

interpreter = tflite.Interpreter(model_path=args.model_file)

الآن شغِّل label_image.py مرة أخرى. هذا كل شيء! أنت الآن تنفِّذ LiteRT النماذج.

مزيد من المعلومات