一款可用于生产环境的开源推理框架,旨在在边缘设备上实现高性能、跨平台的 LLM 部署

为什么选择 LiteRT-LM?

在 Android、iOS、Web 和桌面设备上部署 LLM。
利用 GPU 和 NPU 加速功能最大限度地提升性能。
支持热门 LLM,以及多模态(视觉、音频)和工具使用。
运行针对边缘设备优化的最新开放模型,包括 Gemma-3n、Gemma-3、FunctionGemma、TranslateGemma、Qwen3、Phi-4 等。

开始构建

原生 Android 应用和基于 JVM 的桌面工具。
原生 iOS 和 macOS 集成,提供专门的 Metal 支持(Swift API 即将推出)。
使用 WebAssembly 和 WebGPU 直接在浏览器中运行(JS API 即将推出)。

加入社群

贡献源代码、报告问题并查看示例。
下载预转换模型并加入讨论。