نظرة عامة على LiteRT

‫LiteRT (اختصار لـ Lite Runtime)، المعروفة سابقًا باسم TensorFlow Lite، هي وقت التشغيل العالي الأداء من Google للذكاء الاصطناعي على الأجهزة فقط. يمكنك العثور على نماذج LiteRT جاهزة للتشغيل لمجموعة كبيرة من مهام تعلُّم الآلة والذكاء الاصطناعي، أو تحويل نماذج TensorFlow وPyTorch وJAX وتشغيلها بتنسيق TFLite باستخدام أدوات التحويل والتحسين AI Edge.

الميزات الرئيسية

  • محسّنة لتعلُّم الآلة على الجهاز: تعالج LiteRT خمسة قيود رئيسية للتعلُّم الآلي على الجهاز، وهي: وقت الاستجابة (لا يتم إرسال البيانات إلى خادم)، والخصوصية (لا يتم إرسال أي بيانات شخصية خارج الجهاز)، والاتصال (لا يلزم الاتصال بالإنترنت)، والحجم (تقليل حجم النموذج والملف الثنائي)، واستهلاك الطاقة (الاستدلال الفعّال وعدم الحاجة إلى اتصالات الشبكة).

  • التوافق مع أنظمة أساسية متعددة: يتوافق مع أجهزة Android وiOS وLinux المضمّن ووحدات التحكّم الدقيقة.

  • خيارات النماذج المتوافقة مع عدة أُطر: يوفّر AI Edge أدوات لتحويل النماذج من PyTorch وTensorFlow إلى تنسيق FlatBuffers ‏ (.tflite)، ما يتيح لك استخدام مجموعة كبيرة من النماذج الحديثة على LiteRT. يمكنك أيضًا الوصول إلى أدوات تحسين النماذج التي يمكنها التعامل مع التكميم والبيانات الوصفية.

  • التوافق مع لغات متعددة: يتضمّن حِزم تطوير البرامج (SDK) للغات Java وKotlin وSwift وObjective-C وC++‎ وPython.

  • الأداء العالي: تسريع الأجهزة من خلال أدوات تفويض متخصّصة، مثل وحدة معالجة الرسومات وiOS Core ML

سير عمل التطوير

يتضمّن سير عمل تطوير LiteRT تحديد مشكلة تتعلّق بتعلُّم الآلة أو الذكاء الاصطناعي، واختيار نموذج يحلّ هذه المشكلة، وتنفيذ النموذج على الجهاز. توضّح لك الخطوات التالية سير العمل وتوفّر روابط للحصول على مزيد من التعليمات.

1- تحديد الحلّ الأنسب لمشكلة تعلُّم الآلة

توفّر LiteRT للمستخدمين مستوى عالٍ من المرونة وقابلية التخصيص عند حلّ مشاكل تعلُّم الآلة، ما يجعلها مناسبة للمستخدمين الذين يحتاجون إلى نموذج معيّن أو تنفيذ متخصص. قد يفضّل المستخدمون الذين يبحثون عن حلول جاهزة للاستخدام مهام MediaPipe، التي توفّر حلولاً جاهزة لمهام تعلُّم الآلة الشائعة، مثل رصد العناصر وتصنيف النصوص والاستدلال باستخدام النماذج اللغوية الكبيرة.

اختَر أحد أُطر عمل AI Edge التالية:

  • LiteRT: وقت تشغيل مرن وقابل للتخصيص يمكنه تشغيل مجموعة كبيرة من النماذج. اختَر نموذجًا لحالة الاستخدام، وحوِّله إلى تنسيق LiteRT (إذا لزم الأمر)، وشغِّله على الجهاز. إذا كنت تنوي استخدام LiteRT، تابِع القراءة.
  • MediaPipe Tasks: حلول جاهزة للاستخدام مع نماذج تلقائية تتيح التخصيص اختَر المهمة التي تحلّ مشكلة الذكاء الاصطناعي وتعلُّم الآلة، ونفِّذها على منصات متعددة. إذا كنت تنوي استخدام MediaPipe Tasks، يُرجى الرجوع إلى مستندات MediaPipe Tasks.

2. اختيار نموذج

يتم تمثيل نموذج LiteRT بتنسيق فعال وقابل للنقل يُعرف باسم FlatBuffers، ويستخدم امتداد الملف .tflite.

يمكنك استخدام نموذج LiteRT بالطرق التالية:

  • استخدام نموذج LiteRT حالي: أبسط طريقة هي استخدام نموذج LiteRT بتنسيق .tflite. لا تتطلّب هذه النماذج أي خطوات إضافية للإحالة الناجحة. يمكنك العثور على نماذج LiteRT على Kaggle Models.

  • تحويل نموذج إلى نموذج LiteRT: يمكنك استخدام PyTorch Converter أو TensorFlow Converter لتحويل النماذج إلى تنسيق FlatBuffers (.tflite) وتشغيلها في LiteRT. للبدء، يمكنك العثور على نماذج على المواقع الإلكترونية التالية:

يمكن أن يتضمّن نموذج LiteRT بشكل اختياري بيانات وصفية تحتوي على أوصاف للنموذج يمكن للبشر قراءتها وبيانات يمكن للآلة قراءتها من أجل إنشاء مسارات المعالجة المسبقة واللاحقة تلقائيًا أثناء الاستدلال على الجهاز. لمزيد من التفاصيل، يُرجى الرجوع إلى مقالة إضافة بيانات وصفية.

3- دمج النموذج في تطبيقك

يمكنك تنفيذ نماذج LiteRT لتشغيل الاستنتاجات بالكامل على الجهاز على الويب والأجهزة المضمّنة والأجهزة الجوّالة. تحتوي LiteRT على واجهات برمجة تطبيقات للغات Python وJava وKotlin على Android وSwift على iOS وC++‎ على الأجهزة الصغيرة.

استخدِم الأدلة التالية لتنفيذ نموذج LiteRT على المنصة المفضّلة لديك:

  • التشغيل على Android: يمكنك تشغيل النماذج على أجهزة Android باستخدام واجهات برمجة التطبيقات Java/Kotlin.
  • التشغيل على iOS: تشغيل النماذج على أجهزة iOS باستخدام واجهات برمجة التطبيقات Swift
  • التشغيل على Micro: تشغيل النماذج على الأجهزة المضمّنة باستخدام واجهات برمجة التطبيقات C++‎

على أجهزة Android وiOS، يمكنك تحسين الأداء باستخدام ميزة تسريع الأجهزة. يمكنك استخدام GPU Delegate على أيّ من النظامَين الأساسيَّين، كما يمكنك استخدام Core ML Delegate على نظام التشغيل iOS. لإتاحة استخدام أدوات تسريع الأجهزة الجديدة، يمكنك تحديد عنصر نائب خاص بك.

يمكنك تنفيذ الاستدلال بالطرق التالية استنادًا إلى نوع النموذج:

  • النماذج التي لا تتضمّن بيانات وصفية: استخدِم واجهة برمجة التطبيقات LiteRT Interpreter. متوافق مع منصات ولغات متعددة، مثل Java وSwift وC++‎ وObjective-C وPython

  • النماذج التي تتضمّن بيانات وصفية: يمكنك إنشاء مسارات استنتاج مخصّصة باستخدام مكتبة LiteRT Support Library.

نقل البيانات من TF Lite

ستستمر التطبيقات التي تستخدم مكتبات TF Lite في العمل، ولكن سيتم تضمين جميع عمليات التطوير والتحديثات النشطة الجديدة في حِزم LiteRT فقط. تحتوي واجهات برمجة التطبيقات LiteRT على أسماء الطرق نفسها المتوفّرة في واجهات برمجة التطبيقات TF Lite، لذا لا تتطلّب عملية نقل البيانات إلى LiteRT إجراء تغييرات تفصيلية على الرموز البرمجية.

لمزيد من المعلومات، يُرجى الرجوع إلى دليل نقل البيانات.

الخطوات التالية

يجب أن يبدأ المستخدمون الجدد باستخدام دليل البدء السريع في LiteRT. للحصول على معلومات محدّدة، يُرجى الاطّلاع على الأقسام التالية:

تحويل النماذج

أدلة المنصات