Ndërsa modelet celulare të AI rriten, zhvilluesit e LiteRT duhet të maksimizojnë performancën. NPU-të janë gjithnjë e më të rëndësishme për AI në pajisje që ofrojnë vonesë më të ulët, xhiro më të lartë dhe konsum të reduktuar të energjisë në krahasim me CPU-të dhe GPU-të. Shfrytëzimi i NPU-ve Qualcomm® nëpërmjet Delegatit të drejtpërdrejtë të motorit të Qualcomm AI përmirëson ndjeshëm performancën e aplikacionit celular AI në pajisjet Snapdragon. Në bashkëpunim me Qualcomm, ekipi i Google AI Edge do të demonstrojë integrimin e këtij delegati në aplikacionet Android, duke theksuar përfitimet e performancës mbi procesorët tradicionalë dhe duke treguar se si të filloni.
Delegat i drejtpërdrejtë i Qualcomm AI Engine
Delegati i drejtpërdrejtë i Qualcomm AI Engine u mundëson përdoruesve të ekzekutojnë modelet LiteRT duke përdorur Qualcomm AI Stack. Përdorimi i Delegatit të drejtpërdrejtë të motorit AI Qualcomm është thelbësor për ekzekutimin e konkluzioneve në NPU për modelin tuaj LiteRT në pajisje. Pajisjet e mbështetura përfshijnë:
- Snapdragon 8 Gen 1 (SM8450)
- Snapdragon 8 Gen 2 (SM8550)
- Snapdragon 8 Gen 3 (SM8650)
- Snapdragon 8 Elite (SM8750)
- dhe më shumë
Aplikimet në këto pajisje do të përfitojnë nga Qualcomm AI Stack duke synuar NPU-në e cila ofron performancën më të mirë për modelet e AI.
Si të përdorni NPU-në duke përdorur Delegatin e drejtpërdrejtë të motorit AI Qualcomm
Së pari, shkarkoni Qualcomm AI Engine Direct Delegate i disponueshëm në Maven Central . Për të konfiguruar delegatin në një aplikacion Android Java, nevojiten varësitë e mëposhtme:
dependencies {
implementation 'com.qualcomm.qti:qnn-runtime:2.34.0'
implementation 'com.qualcomm.qti:qnn-litert-delegate:2.34.0' }
Për të përdorur delegatin:
try {
// Created default Options
QnnDelegate.Options options = new QnnDelegate.Options();
// Set the backend and library path
options.setBackendType(QnnDelegate.Options.BackendType.HTP_BACKEND);
options.setSkelLibraryDir(activity.getApplicationInfo().nativeLibraryDir);
// Create the Delegate instance.
qnnDelegate = new QnnDelegate(options);
tfliteOptions.addDelegate(qnnDelegate);
}
catch (UnsupportedOperationException e) {
// Delegate creation failed
}
tfliteInterpreter = new Interpreter(tfliteModel, tfliteOptions);
Për të parë një shembull të një aplikacioni Android që përdor delegatin QNN për LiteRT, shihni aplikacionet e mostrës së Android Qualcomm AI Hub.
Përfitimet e Performancës
Në pajisjet me SOC Snapdragon me procesor Qualcomm® Hexagon Tensor, shumica e modeleve performojnë dukshëm më shpejt në krahasim me GPU dhe CPU. HTP është gjithashtu një procesor më efikas në fuqi për llogaritjen e rrjetit nervor. MobileNetv2, një model me burim të hapur, i para-optimizuar si pjesë e AI Hub Models u përdor si mostër për këtë analizë të performancës.
Pajisja | NPU (QNN delegat për HTP) | GPU (GPUv2) | CPU (XNNPACK) |
---|---|---|---|
Samsung S25 | 0.3 ms | 1.8 ms | 2.8 ms |
Samsung S24 | 0.4 ms | 2.3 ms | 3.6 ms |
Samsung S23 | 0.6 ms | 2.7 ms | 4.1 ms |
Pajisja | NPU (QNN delegat për HTP) | GPU (GPUv2) | CPU (XNNPACK) |
---|---|---|---|
Samsung S25 | 24.9 ms | 43 ms | 481.7 ms |
Samsung S24 | 29.8 ms | 52.6 ms | 621.4 ms |
Samsung S23 | 43.7 ms | 68.2 ms | 871.1 ms |
Produktet e markës Snapdragon dhe Qualcomm janë produkte të Qualcomm Technologies, Inc. dhe/ose filialeve të saj.
Çfarë është më pas
Qëndroni të akorduar për më shumë përditësime emocionuese për shfrytëzimin pa probleme të NPU-ve për zhvillimin e aplikacioneve të AI me LiteRT Next !