با رشد مدلهای هوش مصنوعی موبایل، توسعهدهندگان LiteRT باید عملکرد را به حداکثر برسانند. NPU ها به طور فزاینده ای برای هوش مصنوعی روی دستگاه بسیار مهم هستند که تاخیر کمتر، توان عملیاتی بالاتر و مصرف انرژی کمتری را در مقایسه با CPU و GPU ارائه می دهند. استفاده از NPU های Qualcomm® از طریق نمایندگی مستقیم موتور هوش مصنوعی Qualcomm به طور قابل توجهی عملکرد برنامه هوش مصنوعی موبایل را در دستگاه های اسنپدراگون بهبود می بخشد. با همکاری Qualcomm، تیم Google AI Edge ادغام این نماینده را در برنامههای Android نشان میدهد، دستاوردهای عملکرد را نسبت به پردازندههای سنتی برجسته میکند و نحوه شروع کار را نشان میدهد.
نماینده مستقیم موتور هوش مصنوعی کوالکام
نمایندگی مستقیم موتور هوش مصنوعی Qualcomm به کاربران امکان می دهد مدل های LiteRT را با استفاده از Qualcomm AI Stack اجرا کنند. استفاده از Qualcomm AI Engine Direct Delegate برای اجرای استنتاج بر روی NPU برای مدل LiteRT روی دستگاه شما ضروری است. دستگاه های پشتیبانی شده عبارتند از:
- اسنپدراگون 8 نسل 1 (SM8450)
- اسنپدراگون 8 نسل 2 (SM8550)
- اسنپدراگون 8 نسل 3 (SM8650)
- اسنپدراگون 8 الیت (SM8750)
- و بیشتر
برنامه های کاربردی در این دستگاه ها با هدف قرار دادن NPU که بهترین عملکرد را برای مدل های هوش مصنوعی ارائه می دهد، از پشته هوش مصنوعی Qualcomm بهره مند می شوند.
نحوه استفاده از NPU با استفاده از Delegate مستقیم موتور هوش مصنوعی Qualcomm
ابتدا، Qualcomm AI Engine Direct Delegate موجود در Maven Central را دانلود کنید. برای تنظیم نماینده در یک برنامه جاوا اندروید، وابستگی های زیر مورد نیاز است:
dependencies {
implementation 'com.qualcomm.qti:qnn-runtime:2.34.0'
implementation 'com.qualcomm.qti:qnn-litert-delegate:2.34.0' }
برای استفاده از نماینده:
try {
// Created default Options
QnnDelegate.Options options = new QnnDelegate.Options();
// Set the backend and library path
options.setBackendType(QnnDelegate.Options.BackendType.HTP_BACKEND);
options.setSkelLibraryDir(activity.getApplicationInfo().nativeLibraryDir);
// Create the Delegate instance.
qnnDelegate = new QnnDelegate(options);
tfliteOptions.addDelegate(qnnDelegate);
}
catch (UnsupportedOperationException e) {
// Delegate creation failed
}
tfliteInterpreter = new Interpreter(tfliteModel, tfliteOptions);
برای دیدن نمونهای از یک برنامه Android که از QNN Delegate برای LiteRT استفاده میکند، به برنامههای نمونه اندروید Qualcomm AI Hub مراجعه کنید.
مزایای عملکرد
در دستگاههای دارای SOC Snapdragon با پردازنده Qualcomm® Hexagon Tensor، بیشتر مدلها در مقایسه با GPU و CPU سریعتر عمل میکنند. HTP همچنین یک پردازنده کم مصرف برای محاسبات شبکه عصبی است. MobileNetv2، یک مدل منبع باز، از پیش بهینه سازی شده به عنوان بخشی از AI Hub Models به عنوان نمونه برای این تحلیل عملکرد استفاده شد.
دستگاه | NPU (QNN Delegate برای HTP) | GPU (GPUv2) | CPU (XNNPACK) |
---|---|---|---|
سامسونگ S25 | 0.3 میلیثانیه | 1.8 میلیثانیه | 2.8 میلیثانیه |
سامسونگ S24 | 0.4 میلیثانیه | 2.3 میلیثانیه | 3.6 میلیثانیه |
سامسونگ S23 | 0.6 میلیثانیه | 2.7 میلیثانیه | 4.1 میلیثانیه |
دستگاه | NPU (QNN Delegate برای HTP) | GPU (GPUv2) | CPU (XNNPACK) |
---|---|---|---|
سامسونگ S25 | 24.9 میلیثانیه | 43 میلیثانیه | 481.7 میلیثانیه |
سامسونگ S24 | 29.8 میلیثانیه | 52.6 میلیثانیه | 621.4 میلیثانیه |
سامسونگ S23 | 43.7 میلیثانیه | 68.2 میلیثانیه | 871.1 میلیثانیه |
محصولات با برند اسنپدراگون و کوالکام محصولات شرکت فناوریهای کوالکام و/یا شرکتهای تابعه آن هستند.
چه خبر بعدی
منتظر بهروزرسانیهای هیجانانگیزتر در مورد استفاده یکپارچه از NPU برای توسعه برنامههای هوش مصنوعی با LiteRT Next باشید!