L'ecosistema Android comprende una vasta gamma di dispositivi con diverse unità di elaborazione neurale (NPU). Sfruttando queste NPU specializzate, puoi accelerare notevolmente l'inferenza del modello LiteRT (TFLite) e ridurre il consumo energetico rispetto all'esecuzione su CPU o GPU, migliorando l'esperienza utente nelle tue applicazioni.
I fornitori di chip che producono NPU forniscono delegati LiteRT per consentire alla tua app di utilizzare il loro hardware specifico sul dispositivo di ogni utente.
Qualcomm® AI Engine Direct Delegate
Il delegato diretto dell'AI Engine di Qualcomm® consente agli utenti di eseguire modelli LiteRT utilizzando il runtime AI Engine Direct. Il delegato è supportato dall'API Neural Network di Qualcomm.
Il delegato diretto dell'AI Engine di Qualcomm® è disponibile su Maven Central. Per ulteriori informazioni, consulta la documentazione di Qualcomm Neural Network.
Disponibile a breve
Nei prossimi mesi, saremo lieti di supportare i delegati dei seguenti fornitori:
- Google Pixel
- MediaTek
- Samsung System LSI
Continua a seguirci per aggiornamenti e ulteriori istruzioni sull'utilizzo di questi delegati per sfruttare la potenza delle NPU nei tuoi modelli TFLite.