L'ecosistema Android comprende un'ampia gamma di dispositivi con diverse unità di elaborazione neurale (NPU). L'utilizzo di queste NPU specializzate può accelerare in modo significativo l'inferenza del modello LiteRT (TFLite) e ridurre il consumo energetico rispetto all'esecuzione su CPU o GPU, migliorando l'esperienza utente nelle tue applicazioni.
I fornitori di chip che producono NPU forniscono delegati LiteRT per consentire alla tua app di utilizzare il loro hardware specifico sul dispositivo di ogni utente.
Qualcomm® AI Engine Direct Delegate
Qualcomm® AI Engine Direct Delegate consente agli utenti di eseguire modelli LiteRT utilizzando il runtime AI Engine Direct. Il delegato è supportato dall'API Neural Network di Qualcomm.
Qualcomm® AI Engine Direct Delegate è disponibile su Maven Central. Per maggiori informazioni, consulta la documentazione di Qualcomm Neural Network.
Disponibile a breve
Nei prossimi mesi, non vediamo l'ora di supportare i delegati dei seguenti fornitori:
- Google Pixel
- Samsung System LSI
- Intel
Continua a seguirci per aggiornamenti e ulteriori istruzioni sull'utilizzo di questi delegati per sfruttare la potenza delle NPU nei tuoi modelli LiteRT (TFLite).