NPU 的 LiteRT 委派
Android 生態系統涵蓋各種裝置,搭載不同的神經處理單元 (NPU)。相較於 CPU 或 GPU 執行作業,運用這些專用 NPU 可大幅加速 LiteRT (TFLite) 模型推論,並減少能源消耗,進而提升應用程式的使用者體驗。
製造 NPU 的晶片供應商會提供 LiteRT 委派,讓應用程式在每位使用者的裝置上使用特定硬體。
Qualcomm® AI Engine Direct Delegate
使用者可透過 Qualcomm® AI Engine Direct Delegate,使用 AI Engine Direct 執行階段執行 LiteRT 模型。這個委派項目以 Qualcomm 的神經網路 API 為基礎。
Qualcomm® AI Engine Direct Delegate 可在 Maven Central 取得。詳情請參閱 Qualcomm Neural Network 說明文件。
即將推出
我們預計在接下來幾個月內,支援下列供應商的代表:
- Google Pixel
- Samsung System LSI
- Intel
請密切留意最新消息,並參閱後續操作說明,瞭解如何使用這些委派項,在 LiteRT (TFLite) 模型中發揮 NPU 的強大效能。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-10-14 (世界標準時間)。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["缺少我需要的資訊","missingTheInformationINeed","thumb-down"],["過於複雜/步驟過多","tooComplicatedTooManySteps","thumb-down"],["過時","outOfDate","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["示例/程式碼問題","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["上次更新時間:2025-10-14 (世界標準時間)。"],[],[]]