Delega LiteRT per le NPU

L'ecosistema Android comprende un'ampia gamma di dispositivi con diverse unità di elaborazione neurale (NPU). L'utilizzo di queste NPU specializzate può accelerare in modo significativo l'inferenza del modello LiteRT (TFLite) e ridurre il consumo energetico rispetto all'esecuzione su CPU o GPU, migliorando l'esperienza utente nelle tue applicazioni.

I fornitori di chip che producono NPU forniscono delegati LiteRT per consentire alla tua app di utilizzare il loro hardware specifico sul dispositivo di ogni utente.

Qualcomm® AI Engine Direct Delegate

Qualcomm® AI Engine Direct Delegate consente agli utenti di eseguire modelli LiteRT utilizzando il runtime AI Engine Direct. Il delegato è supportato dall'API Neural Network di Qualcomm.

Qualcomm® AI Engine Direct Delegate è disponibile su Maven Central. Per maggiori informazioni, consulta la documentazione di Qualcomm Neural Network.

Disponibile a breve

Nei prossimi mesi, non vediamo l'ora di supportare i delegati dei seguenti fornitori:

  • Google Pixel
  • Samsung System LSI
  • Intel

Continua a seguirci per aggiornamenti e ulteriori istruzioni sull'utilizzo di questi delegati per sfruttare la potenza delle NPU nei tuoi modelli LiteRT (TFLite).