LiteRT، المعروفة سابقًا باسم TensorFlow Lite، هو بيئة تشغيل عالية الأداء من Google للذكاء الاصطناعي على الجهاز فقط يمكنك العثور على نماذج LiteRT الجاهزة للتشغيل العديد من مهام تعلُّم الآلة والذكاء الاصطناعي (AI) أو يمكنك تحويل نماذج TensorFlow وPyTorch وJAX وتشغيلها تنسيق TFLite باستخدام أدوات التحسين والإحالات الناجحة التي تستخدم AI Edge.
الميزات الرئيسية
محسَّنة لتعلُّم الآلة على الجهاز: يتناول LiteRT خمسة قيود ODML الرئيسية: وقت الاستجابة (ليس هناك رحلات ذهاب وعودة إلى الخادم)، الخصوصية (لا تغادر أي بيانات شخصية الجهاز)، والاتصال (اتصال الإنترنت غير مطلوب) والحجم (نموذج مخفّض والحجم الثنائي) واستهلاك الطاقة (الاستنتاج الفعّال ونقص اتصالات الشبكة).
دعم النظام الأساسي المتعدد: متوافق مع Android أجهزة iOS المضمّنة Linux متحكّمات دقيقة
خيارات النماذج المتعددة الإطارات: توفّر AI Edge أدوات لتحويل النماذج من TensorFlow وPyTorch وJAX إلى تنسيق FlatBuffers (
.tflite
)، ما يتيح لك استخدام مجموعة واسعة من النماذج المتطوّرة في LiteRT. يمكنك أيضًا الوصول إلى أدوات تحسين النماذج التي يمكنها معالجة قياس الكم وبيانات التعريف.دعم متعدد اللغات: يتضمن حزم SDK لكل من Java/Kotlin، وSwift، أهداف C وC++ وPython.
الأداء العالي: تسريع الأجهزة من خلال مفوَّضين متخصصين مثل وحدة معالجة الرسومات (GPU) وتقنية تعلُّم الآلة في أجهزة iOS الأساسية.
سير عمل التطوير
ويشمل سير عمل تطوير LiteRT تحديد مشكلة تعلُّم الآلة/الذكاء الاصطناعي (AI) واختيار النموذج الذي يحل هذه المشكلة، وتنفيذ النموذج على الجهاز فقط. تُطلعك الخطوات التالية على سير العمل وتقدّم روابط إلى مزيد من على التعليمات
1. تحديد الحل الأكثر ملاءمةً لمشكلة تعلُّم الآلة
يوفّر LiteRT للمستخدمين مستوى عالٍ من المرونة وقابلية التخصيص بحل مشكلات التعلم الآلي، مما يجعلها مناسبة المستخدمين الذين يحتاجون إلى نموذج محدد أو عملية تنفيذ متخصصة. المستخدمون الذين يبحثون عن حلول جاهزة والتشغيل، قد يفضلون استخدام MediaPipe "مهام Google"، التي توفِّر حلول جاهزة لمهام تعلُّم الآلة الشائعة مثل رصد الأشياء وتصنيف النصوص والاستنتاج باستخدام النموذج اللغوي الكبير.
اختَر أحد أُطر عمل AI Edge التالية:
- LiteRT: بيئة تشغيل مرنة وقابلة للتخصيص يمكن تشغيلها على نطاق واسع مجموعة من النماذج. اختَر نموذجًا لحالة الاستخدام وحوِّله إلى LiteRT (إذا لزم الأمر) وتشغيله على الجهاز. إذا كنت تنوي لاستخدام LiteRT، واصِل القراءة.
- MediaPipe Tasks: حلول التوصيل والتشغيل باستخدام النماذج التلقائية التي تسمح للتخصيص. اختيار المهمة التي تحل مشكلة الذكاء الاصطناعي/تعلُّم الآلة وتنفيذه على منصات متعددة. إذا كنت تنوي استخدام مهام MediaPipe، يمكنك الرجوع إلى MediaPipe مستندات "مهام Google"
2. اختيار نموذج
يتم تمثيل نموذج LiteRT بتنسيق محمول فعال يُعرف باسم
FlatBuffers، التي تستخدم السمة .tflite
امتداد الملف.
يمكنك استخدام نموذج LiteRT بالطرق التالية:
استخدام نموذج LiteRT حالي: أبسط طريقة هي استخدام نموذج LiteRT متوفّر حاليًا بالتنسيق
.tflite
. هذه النماذج لا تتطلب أي خطوات إضافية للإحالة الناجحة. يمكنك العثور على نماذج LiteRT على نماذج Kaggle:تحويل نموذج إلى نموذج LiteRT: يمكنك استخدام محوّل TensorFlow، وPyToch محوّل أو JAX محوّل لتحويل النماذج إلى تنسيق FlatBuffers (
.tflite
) وقم بتشغيلها في LiteRT. للبدء، يمكنك العثور على النماذج على المواقع التالية:- نماذج TensorFlow على Kaggle طُرُز وجه معانق
- نماذج PyTorch على Hugging
الوجه و
torchvision
- نماذج JAX على Hugging Face
يمكن أن يتضمن نموذج LiteRT اختياريًا بيانات وصفية تحتوي على أوصاف النماذج التي يمكن لشخص عادي قراءتها وبيانات يمكن للآلة قراءتها مراحل ما قبل وما بعد المعالجة أثناء الاستنتاج على الجهاز. لمزيد من التفاصيل، يمكنك مراجعة مقالة إضافة بيانات وصفية.
3- دمج النموذج في تطبيقك
يمكنك تطبيق نماذج LiteRT للاستفادة من الاستنتاجات بالكامل. على الجهاز فقط على الويب والأجهزة المضمَّنة والأجهزة الجوّالة. يحتوي LiteRT على واجهات برمجة تطبيقات لكل من Python وJava Kotlin لنظام التشغيل Android، وSwift لنظام التشغيل وiOS وC++ للأجهزة الدقيقة.
يمكنك استخدام الأدلة التالية لتنفيذ نموذج LiteRT على نموذجك المفضّل. النظام الأساسي:
- التشغيل على Android: تشغيل الطُرز على أجهزة Android باستخدام واجهات برمجة تطبيقات Java/Kotlin.
- التشغيل على iOS: تشغيل الطُرز على أجهزة iOS باستخدام Swift واجهات برمجة التطبيقات.
- التشغيل على الأجهزة الصغيرة: تشغيل الطُرز على الأجهزة المضمَّنة باستخدام واجهات برمجة تطبيقات C++.
على أجهزة Android وiOS، يمكنك تحسين الأداء باستخدام الأجهزة والتسريع. على أي من النظامين الأساسيين، يمكنك استخدام وحدة معالجة رسومات التفويض، وعلى iOS يمكنك استخدام تعلُّم الآلة الأساسية التفويض لإتاحة مسرِّعات الأجهزة الجديدة، يمكنك تحديد المفوَّض
يمكنك تنفيذ الاستنتاج بالطرق التالية استنادًا إلى نوع النموذج:
النماذج غير الوصفية: استخدِم LiteRT واجهة برمجة التطبيقات للترجمة الفورية يتوفّر هذا الخيار على أنظمة أساسية ولغات متعدّدة. مثل Java وSwift وC++ وObjective-C وPython.
نماذج تتضمّن بيانات وصفية: يمكنك إنشاء مسارات استنتاج مخصّصة باستخدام مكتبة دعم LiteRT
نقل البيانات من LiteRT
ستستمر التطبيقات التي تستخدم مكتبات LiteRT في العمل، ولكن سيتم تضمين جميع التحديثات والتحديثات النشطة الجديدة في حزم LiteRT فقط. تحتوي واجهات برمجة تطبيقات LiteRT على أسماء الطرق نفسها مثل واجهات برمجة تطبيقات TF Lite، لذا يجب نقل البيانات إلى LiteRT تغييرات تفصيلية في الرمز.
لمزيد من المعلومات، يُرجى الاطّلاع على دليل نقل البيانات.
الخطوات التالية
على المستخدمين الجدد بدء استخدام التشغيل السريع في LiteRT. للحصول على معلومات محددة، يمكنك الاطّلاع على الأقسام التالية:
تحويل النموذج
- تحويل نماذج TensorFlow
- تحويل نماذج PyTorch
- تحويل نماذج الذكاء الاصطناعي التوليدي في PyTorch
- تحويل نماذج JAX
أدلة النظام الأساسي