LiteRT (اختصارًا لـ Lite Runtime) والمعروفة سابقًا باسم TensorFlow Lite، هي منصّة برمجية عالية الأداء من Google لتكنولوجيات الذكاء الاصطناعي على الأجهزة فقط. يمكنك العثور على نماذج LiteRT جاهزة للتشغيل لمجموعة كبيرة من مهام تعلُّم الآلة/الذكاء الاصطناعي، أو تحويل نماذج TensorFlow وPyTorch وJAX وتشغيلها بتنسيق TFLite باستخدام أدوات تحويل الإحالات الناجحة وتحسينها في الذكاء الاصطناعي على الأجهزة.
الميزات الرئيسية
محسَّن لميزة تعلُّم الآلة على الجهاز: يعالج LiteRT خمسة قيود رئيسية لميزة تعلُّم الآلة على الجهاز: وقت الاستجابة (لا يتم إرسال البيانات الشخصية إلى الخادم) والخصوصية (لا يتم نقل أي بيانات شخصية خارج الجهاز) والاتصال (لا يلزم الاتصال بالإنترنت) والحجم (حجم مخفض للنموذج والملف الثنائي) واستهلاك الطاقة (استنتاج فعّال وعدم الحاجة إلى اتصالات بالشبكة).
التوافق مع أنظمة التشغيل المتعددة: تتوافق مع أجهزة Android و iOS ونظام التشغيل Linux المضمّن و وحدات التحكم الدقيقة.
خيارات النماذج المتوافقة مع أُطر عمل متعددة: توفّر AI Edge أدوات لتحويل النماذج من نماذج TensorFlow وPyTorch وJAX إلى تنسيق FlatBuffers (
.tflite
)، ما يتيح لك استخدام مجموعة كبيرة من النماذج المتطوّرة على LiteRT. يمكنك أيضًا الوصول إلى أدوات تحسين النماذج التي يمكنها التعامل مع الترميز والبيانات الوصفية.إتاحة لغات متنوعة: تتضمّن حِزم تطوير البرامج (SDK) لـ Java/Kotlin وSwift وObjective-C وC++ وPython.
الأداء العالي: تسريع الأجهزة من خلال أدوات مفوَّضة متخصّصة، مثل وحدة معالجة الرسومات وiOS Core ML
سير العمل في التطوير
يتضمن سير عمل تطوير LiteRT تحديد مشكلة تعلُّم الآلة/الذكاء الاصطناعي واختيار نموذج يحلّ هذه المشكلة وتنفيذ النموذج على الجهاز. توضّح لك الخطوات التالية سير العمل وتوفّر روابط لمزيد من التعليمات.
1. تحديد الحل الأنسب لمشكلة تعلُّم الآلة
يوفّر LiteRT للمستخدمين مستوىً عالٍ من المرونة والتخصيص عند حلّ مشاكل تعلُّم الآلة، ما يجعله مناسبًا للمستخدمين الذين يحتاجون إلى نموذج معيّن أو عملية تنفيذ مخصّصة. قد يفضّل المستخدمون الذين يبحثون عن حلول جاهزة للاستخدام MediaPipe Tasks، التي توفّر حلولًا جاهزة لمهام تعلُّم الآلة الشائعة، مثل رصد الأجسام، وتصنيف النصوص، واستنتاج النموذج الكبير للتعلم (LLM).
اختَر أحد إطارات عمل الذكاء الاصطناعي (AI) التاليّة للأجهزة الطرفية:
- LiteRT: منصّة تشغيل مرنة وقابلة للتخصيص يمكنها تشغيل مجموعة كبيرة من نماذج البرمجة. اختَر نموذجًا لحالة الاستخدام، واحوِّله إلى تنسيق LiteRT (إذا لزم الأمر)، وشغِّله على الجهاز. إذا كنت تنوي استخدام LiteRT، يُرجى متابعة القراءة.
- MediaPipe Tasks: حلول جاهزة للاستخدام مع نماذج تلقائية تتيح التخصيص اختَر المهمة التي تحلّ مشكلتك المتعلّقة بالذكاء الاصطناعي أو تعلُّم الآلة، و نفِّذها على منصات متعددة. إذا كنت تنوي استخدام "مهام MediaPipe"، يُرجى الرجوع إلى مستندات MediaPipe مهام.
2. اختيار نموذج
يتم تمثيل نموذج LiteRT بتنسيق محمول وفعّال يُعرف باسم
FlatBuffers، والذي يستخدم امتداد الملف .tflite
.
يمكنك استخدام نموذج LiteRT بالطرق التالية:
استخدام نموذج LiteRT حالي: إنّ أبسط طريقة هي استخدام
.tflite
نموذج LiteRT حاليًا بتنسيق.tflite
. ولا تتطلّب هذه النماذج أي خطوات إضافية للإحالات الناجحة. يمكنك العثور على نماذج LiteRT على Kaggle Models.تحويل نموذج إلى نموذج LiteRT: يمكنك استخدام محوِّل TensorFlow أو محوِّل PyToch أو محوِّل JAX لتحويل النماذج إلى تنسيق FlatBuffers (
.tflite
) وتشغيلها في LiteRT. للبدء، يمكنك العثور على النماذج على المواقع الإلكترونية التالية:- نماذج TensorFlow على نماذج Kaggle و Hugging Face
- نماذج PyTorch على Hugging
Face و
torchvision
- نماذج JAX على Hugging Face
يمكن أن يتضمّن نموذج LiteRT اختياريًا بيانات وصفية تحتوي على وصف نماذج قابلة للقراءة من قِبل البشر وبيانات قابلة للقراءة من قِبل الآلات لإنشاء مسارات معالجة ما قبل المعالجة وما بعد المعالجة تلقائيًا أثناء الاستنتاج على الجهاز. يُرجى الرجوع إلى مقالة إضافة data الوصفية لمزيد من التفاصيل.
3- دمج النموذج في تطبيقك
يمكنك تنفيذ نماذج LiteRT لإجراء الاستنتاجات بالكامل على الجهاز على الويب والأجهزة المضمّنة والأجهزة الجوّالة. يحتوي LiteRT على واجهات برمجة تطبيقات لبرمجيات Python وJava و Kotlin لنظام التشغيل Android وSwift لنظام التشغيل iOS وC++ للأجهزة الدقيقة.
استخدِم الأدلة التالية لتنفيذ نموذج LiteRT على المنصة المفضّلة لديك:
- التشغيل على Android: يمكنك تشغيل النماذج على أجهزة Android باستخدام واجهات برمجة تطبيقات Java/Kotlin.
- التشغيل على أجهزة iOS: يمكنك تشغيل النماذج على أجهزة iOS باستخدام واجهات برمجة التطبيقات Swift.
- التشغيل على الأجهزة الدقيقة: يمكنك تشغيل النماذج على الأجهزة المضمّنة باستخدام واجهات برمجة تطبيقات C++.
على أجهزة Android وiOS، يمكنك تحسين الأداء باستخدام ميزة "تسريع الأجهزة". على أي من النظامَين الأساسيَين، يمكنك استخدام GPU Delegate، وعلى نظام التشغيل iOS، يمكنك استخدام Core ML Delegate. لإضافة إمكانية استخدام مسرعات الأجهزة الجديدة، يمكنك تحديد المفوَّض الخاص بك.
يمكنك إجراء الاستنتاج بالطُرق التالية استنادًا إلى نوع النموذج:
النماذج التي لا تحتوي على بيانات وصفية: استخدِم واجهة برمجة التطبيقات LiteRT Interpreter. تتوفّر على منصات ولغات متعدّدة، مثل Java وSwift وC++ وObjective-C وPython.
النماذج التي تحتوي على بيانات وصفية: يمكنك إنشاء مسارات إحالة مخصّصة باستخدام مكتبة دعم LiteRT.
نقل البيانات من TF Lite
ستستمر التطبيقات التي تستخدم مكتبات TF Lite في العمل، ولكن لن يتم تضمين كل التطوير الجديد والنشط والتحديثات إلا في حِزم LiteRT. تحتوي واجهات برمجة التطبيقات LiteRT على أسماء الطرق نفسها التي تتضمّنها واجهات برمجة التطبيقات TF Lite، لذا لا تتطلّب عملية نقل البيانات إلى LiteRT إجراء تغييرات تفصيلية على الرموز البرمجية.
لمزيد من المعلومات، يُرجى الرجوع إلى دليل نقل البيانات.
الخطوات التالية
على المستخدمين الجدد البدء من خلال الدليل السريع لاستخدام LiteRT. للحصول على معلومات محدّدة، يُرجى الاطّلاع على الأقسام التالية:
تحويل النموذج
- تحويل نماذج TensorFlow
- تحويل نماذج PyTorch
- تحويل نماذج الذكاء الاصطناعي التوليدي في PyTorch
- تحويل نماذج JAX
أدلة المنصات