تفويض LiteRT لوحدات NPU

تشمل منظومة Android المتكاملة مجموعة واسعة من الأجهزة التي تتضمّن وحدات معالجة عصبية (NPU) متنوعة. يمكن أن يؤدي استخدام وحدات المعالجة العصبية المتخصصة هذه إلى تسريع استنتاج نماذج LiteRT (TFLite) بشكل كبير وتقليل استهلاك الطاقة مقارنةً بالتنفيذ على وحدة المعالجة المركزية أو وحدة معالجة الرسومات، ما يؤدي إلى تحسين تجربة المستخدم في تطبيقاتك.

يوفّر مورّدو الشرائح الإلكترونية الذين يصنّعون وحدات معالجة عصبية (NPU) برامج وسيطة LiteRT للسماح لتطبيقك باستخدام أجهزتهم المحدّدة على جهاز كل مستخدم.

Qualcomm® AI Engine Direct Delegate

تتيح ميزة "التفويض المباشر" في Qualcomm® AI Engine للمستخدمين تشغيل نماذج LiteRT باستخدام وقت التشغيل المباشر في AI Engine. تستند هذه الوظيفة إلى واجهة برمجة التطبيقات Neural Network API من Qualcomm.

يتوفّر Qualcomm® AI Engine Direct Delegate على Maven Central. لمزيد من المعلومات، يُرجى الاطّلاع على مستندات Qualcomm Neural Network.

قريبًا

نتطلّع إلى توفير الدعم للمفوّضين من المورّدين التاليين خلال الأشهر المقبلة:

  • Google Pixel
  • Samsung System LSI
  • Intel

يُرجى متابعة آخر الأخبار والتعليمات الإضافية حول استخدام هذه المفوّضات للاستفادة من قوة وحدات المعالجة العصبية في نماذج LiteRT (TFLite).