NPU के लिए LiteRT डेलिगेट

Android नेटवर्क में कई तरह के डिवाइस शामिल हैं. इनमें अलग-अलग तरह की न्यूरल प्रोसेसिंग यूनिट (एनपीयू) होती हैं. इन खास एनपीयू का फ़ायदा उठाकर, LiteRT (TFLite) मॉडल के अनुमान को तेज़ी से लगाया जा सकता है. साथ ही, सीपीयू या जीपीयू के मुकाबले एनर्जी की खपत को कम किया जा सकता है. इससे आपके ऐप्लिकेशन में उपयोगकर्ता अनुभव बेहतर होगा.

एनपीयू बनाने वाले चिप वेंडर, LiteRT डेलिगेट उपलब्ध कराते हैं, ताकि आपका ऐप्लिकेशन हर उपयोगकर्ता के डिवाइस पर उनके खास हार्डवेयर का इस्तेमाल कर सके.

Qualcomm® AI Engine Direct Delegate

Qualcomm® AI Engine Direct Delegate की मदद से, उपयोगकर्ता AI Engine Direct रनटाइम का इस्तेमाल करके LiteRT मॉडल चला सकते हैं. इस डेलिगेट को Qualcomm के Neural Network API की मदद से बनाया गया है.

Qualcomm® AI Engine Direct Delegate, Maven Central पर उपलब्ध है. ज़्यादा जानकारी के लिए, Qualcomm के न्यूरल नेटवर्क से जुड़ा दस्तावेज़ देखें.

यह सुविधा जल्द ही उपलब्ध होगी

आने वाले महीनों में, हम इन वेंडर के प्रतिनिधियों की मदद करने के लिए उत्साहित हैं:

  • Google Pixel
  • MediaTek
  • Samsung System LSI

अपने TFLite मॉडल में एनपीयू की क्षमता का इस्तेमाल करने के लिए, इन डेलिगेट का इस्तेमाल करने के बारे में अपडेट और अन्य निर्देश पाने के लिए हमारे साथ बने रहें.