NPU 的 LiteRT 委派

Android 生態系統涵蓋各種裝置,搭載不同的神經處理單元 (NPU)。相較於 CPU 或 GPU 執行作業,運用這些專用 NPU 可大幅加速 LiteRT (TFLite) 模型推論,並減少能源消耗,進而提升應用程式的使用者體驗。

製造 NPU 的晶片供應商會提供 LiteRT 委派,讓應用程式在每位使用者的裝置上使用特定硬體。

Qualcomm® AI Engine Direct Delegate

使用者可透過 Qualcomm® AI Engine Direct Delegate,使用 AI Engine Direct 執行階段執行 LiteRT 模型。這個委派項目以 Qualcomm 的神經網路 API 為基礎。

Qualcomm® AI Engine Direct Delegate 可在 Maven Central 取得。詳情請參閱 Qualcomm Neural Network 說明文件

即將推出

我們預計在接下來幾個月內,支援下列供應商的代表:

  • Google Pixel
  • Samsung System LSI
  • Intel

請密切留意最新消息,並參閱後續操作說明,瞭解如何使用這些委派項,在 LiteRT (TFLite) 模型中發揮 NPU 的強大效能。