以 TensorFlow Lite 經過實戰考驗的基礎架構為基礎
LiteRT 不僅是新技術,更是全球部署最廣泛的機器學習執行階段的下一代技術。這項技術支援您每天使用的應用程式,在數十億部裝置上提供低延遲和高隱私權保障。
受最關鍵的 Google 應用程式信賴
超過 10 萬個應用程式,全球數十億使用者
LiteRT 精彩內容
跨平台就緒
發揮生成式 AI 的潛力
簡化硬體加速
支援多種架構
選擇開發路徑
使用 LiteRT 在任何地方部署 AI,包括高效能的行動應用程式,以及資源受限的 IoT 裝置。
現有 TFLite 使用者
改用 LiteRT,在各平台 (Android、電腦、網頁) 上運用強化效能和統一 API。
BYOM:自備模型
擁有 PyTorch 模型,並希望實作裝置端視覺或音訊體驗。
部署生成式 AI 模型
使用 Gemma 等經過最佳化的開放權重生成式 AI 模型或其他開放權重模型,在裝置端建立進階聊天機器人。
[進階] 模型專家
製作自訂模型,或針對特定硬體 CPU/GPU/NPU 進行深度最佳化,以達到最高效能。
範例、模型和試用版
在 GitHub 上查看 LiteRT 範例應用程式
完整的端對端範例應用程式。
查看生成式 AI 模型
預先訓練且立即可用的生成式 AI 模型。
查看示範 - Google AI Edge Gallery 應用程式
這個藝廊展示使用 LiteRT 的裝置端 ML/GenAI 用途。
網誌和公告
掌握 LiteRT 團隊的最新公告、深入技術分析和效能基準。
LiteRT:裝置端 AI 的通用架構
Google 的整合式裝置端機器學習架構,從 TFLite 演進而來,可進行高效能部署。
MediaTek NPU 和 LiteRT:為新一代裝置端 AI 提供強大動力
擴大 NPU 加速支援,將 MediaTek 晶片組納入其中,以提高 AI 效率。
運用 LiteRT 充分發揮 Qualcomm NPU 效能
在 Qualcomm 神經處理單元上發揮生成式 AI 的突破性效能。
LiteRT:最高效能,簡化版
隆重推出 CompiledModel API,可自動選取硬體並執行非同步作業。
Chrome、Chromebook Plus 和 Pixel Watch 搭載 LiteRT-LM,提供裝置端生成式 AI 功能
使用 LiteRT-LM 在穿戴式裝置和瀏覽器平台部署語言模型。
Google AI Edge 小型語言模型、多模態和函式呼叫
邊緣語言模型的 RAG、多模態和函式呼叫最新洞察
加入社群
LiteRT GitHub 社群
直接參與專案,並與核心開發人員協作。
Hugging Face Hub
在 Hugging Face Hub 存取最佳化開放權重模型。