NPU के लिए LiteRT डेलिगेट

Android के नेटवर्क में, अलग-अलग तरह के डिवाइस शामिल होते हैं. इनमें अलग-अलग न्यूरल प्रोसेसिंग यूनिट (एनपीयू) होते हैं. इन खास एनपीयू का इस्तेमाल करने से, सीपीयू या जीपीयू की तुलना में LiteRT (TFLite) मॉडल इन्फ़रेंस की प्रोसेस को काफ़ी हद तक तेज़ किया जा सकता है. साथ ही, ऊर्जा की खपत को भी कम किया जा सकता है. इससे आपके ऐप्लिकेशन में उपयोगकर्ताओं को बेहतर अनुभव मिलता है.

एनपीयू बनाने वाली कंपनियां, LiteRT डेलिगेट उपलब्ध कराती हैं. इससे आपका ऐप्लिकेशन, हर उपयोगकर्ता के डिवाइस पर उनके खास हार्डवेयर का इस्तेमाल कर पाता है.

Qualcomm® AI Engine Direct Delegate

Qualcomm® AI Engine Direct Delegate की मदद से, उपयोगकर्ता AI Engine Direct रनटाइम का इस्तेमाल करके LiteRT मॉडल चला सकते हैं. डेलिगेट को Qualcomm के Neural Network API की मदद से बनाया गया है.

Qualcomm® AI Engine Direct Delegate, Maven Central पर उपलब्ध है. ज़्यादा जानकारी के लिए, Qualcomm Neural Network का दस्तावेज़ देखें.

जल्द ही उपलब्ध होगा

हम आने वाले महीनों में, इन वेंडर के प्रतिनिधियों को सहायता देने के लिए तैयार हैं:

  • Google Pixel
  • Samsung System LSI
  • Intel

अपने LiteRT (TFLite) मॉडल में एनपीयू की सुविधाओं का इस्तेमाल करने के लिए, इन डेलिगेट का इस्तेमाल करने के बारे में अपडेट और ज़्यादा निर्देशों के लिए बने रहें.