隆重推出 LiteRT:Google 為裝置端 AI (舊稱 TensorFlow Lite) 打造的高效能執行階段。
NPU 的 LiteRT 委派
Android 生態系統包含多種裝置,其中包含各種神經處理單元 (NPU)。相較於 CPU 或 GPU 執行,運用這些專屬的 NPU 可大幅加快 LiteRT (TFLite) 模型推論,並減少耗電量,進而提升應用程式的使用者體驗。
製造 NPUs 的晶片供應商會提供 LiteRT 委派物件,讓應用程式在每位使用者的裝置上使用特定硬體。
Qualcomm® AI Engine Direct Delegate
Qualcomm® AI Engine Direct 委派作業可讓使用者使用 AI Engine Direct 執行階段執行 LiteRT 模型。委派作業由 Qualcomm 的神經網路 API 支援。
Qualcomm® AI Engine Direct Delegate 可在 Maven Central 取得。詳情請參閱 Qualcomm Neural Network 說明文件。
即將推出
我們期待在未來幾個月內,為下列廠商的代表提供支援:
- Google Pixel
- MediaTek
- Samsung System LSI
請密切留意最新消息和進一步的操作說明,瞭解如何使用這些委派函來發揮 TFLite 模型中 NPU 的強大功能。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-01-08 (世界標準時間)。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["缺少我需要的資訊","missingTheInformationINeed","thumb-down"],["過於複雜/步驟過多","tooComplicatedTooManySteps","thumb-down"],["過時","outOfDate","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["示例/程式碼問題","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["上次更新時間:2025-01-08 (世界標準時間)。"],[],[]]