Delega LiteRT per le NPU

L'ecosistema Android comprende una vasta gamma di dispositivi con diverse unità di elaborazione neurale (NPU). Sfruttando queste NPU specializzate, puoi accelerare notevolmente l'inferenza del modello LiteRT (TFLite) e ridurre il consumo energetico rispetto all'esecuzione su CPU o GPU, migliorando l'esperienza utente nelle tue applicazioni.

I fornitori di chip che producono NPU forniscono delegati LiteRT per consentire alla tua app di utilizzare il loro hardware specifico sul dispositivo di ogni utente.

Qualcomm® AI Engine Direct Delegate

Il delegato diretto dell'AI Engine di Qualcomm® consente agli utenti di eseguire modelli LiteRT utilizzando il runtime AI Engine Direct. Il delegato è supportato dall'API Neural Network di Qualcomm.

Il delegato diretto dell'AI Engine di Qualcomm® è disponibile su Maven Central. Per ulteriori informazioni, consulta la documentazione di Qualcomm Neural Network.

Disponibile a breve

Nei prossimi mesi, saremo lieti di supportare i delegati dei seguenti fornitori:

  • Google Pixel
  • MediaTek
  • Samsung System LSI

Continua a seguirci per aggiornamenti e ulteriori istruzioni sull'utilizzo di questi delegati per sfruttare la potenza delle NPU nei tuoi modelli TFLite.