使用 LiteRT Next 進行 NPU 加速
LiteRT Next 提供統一介面,可使用神經處理單元 (NPU),不必個別瀏覽廠商專屬的編譯器、執行階段或程式庫依附元件。使用 LiteRT Next 進行 NPU 加速,可避免許多廠商或裝置專屬的複雜情況,提升即時和大型模型推論的效能,並透過零複製硬體緩衝區使用量,盡量減少記憶體副本。
如果您已加入 LiteRT NPU 搶先體驗計畫,請登入授權帳戶,查看 NPU 說明文件。如果尚未註冊,請申請加入搶先體驗計畫:
立即報名!arrow_forward
開始使用
如要開始使用,請參閱 NPU 總覽指南:
- 如果是傳統機器學習模型,請直接使用核心架構:
- 對於大型語言模型 (LLM),我們建議使用 LiteRT-LM 架構,處理 NPU 執行作業所需的端對端處理程序:
如需支援 NPU 的 LiteRT Next 實作範例,請參閱下列試用版應用程式:
NPU 供應商
LiteRT Next 支援下列供應商的 NPU 加速功能:
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2025-09-03 (世界標準時間)。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["缺少我需要的資訊","missingTheInformationINeed","thumb-down"],["過於複雜/步驟過多","tooComplicatedTooManySteps","thumb-down"],["過時","outOfDate","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["示例/程式碼問題","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["上次更新時間:2025-09-03 (世界標準時間)。"],[],[],null,[]]