发送反馈
使用 LiteRT Next 实现 NPU 加速
注意 : LiteRT NPU 加速功能仅通过抢先体验计划提供。如果您尚未加入,请注册 。
LiteRT Next 提供了一个统一的接口来使用神经处理单元 (NPU),而无需您单独浏览特定于供应商的编译器、运行时或库依赖项。使用 LiteRT Next 进行 NPU 加速可避免许多特定于供应商或特定于设备的复杂情况,提高实时推理和大型模型推理的性能,并通过零复制硬件缓冲区使用来最大限度地减少内存复制。
如果您已加入 LiteRT NPU 抢先体验计划,请登录授权账号以查看 NPU 文档。如果您尚未加入,请报名参加抢先体验计划:
报名!arrow_forward
机密 :以下部分中的内容属于机密信息。未经授权不得与他人分享或讨论。
开始使用
如需开始使用,请参阅 NPU 概览指南:
对于经典机器学习模型 ,请直接使用核心框架:
对于大语言模型 (LLM) ,我们建议使用 LiteRT-LM 框架来处理 NPU 执行所需的端到端处理:
如需查看支持 NPU 的 LiteRT Next 的示例实现,请参阅以下演示应用:
NPU 供应商
LiteRT Next 支持以下供应商的 NPU 加速:
发送反馈
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可 获得了许可,并且代码示例已根据 Apache 2.0 许可 获得了许可。有关详情,请参阅 Google 开发者网站政策 。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2025-09-03。
需要向我们提供更多信息?
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["没有我需要的信息","missingTheInformationINeed","thumb-down"],["太复杂/步骤太多","tooComplicatedTooManySteps","thumb-down"],["内容需要更新","outOfDate","thumb-down"],["翻译问题","translationIssue","thumb-down"],["示例/代码问题","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2025-09-03。"],[],[]]