在行動、網頁和嵌入式應用程式中部署 AI
-
裝置上
縮短延遲時間。離線工作。將資料保留本機及私人。
-
跨平台
在 Android、iOS、網頁和嵌入式中執行相同的模型。
-
多架構
與 JAX、Keras、PyTorch 和 TensorFlow 模型相容。
-
完整 AI 邊緣堆疊
彈性架構、統包式解決方案、硬體加速器
現成解決方案與彈性架構
跨平台部署自訂模型
在 Android、iOS、網頁和嵌入式裝置上執行 JAX、Keras、PyTorch 和 TensorFlow 模型,並針對傳統機器學習和生成式 AI 進行最佳化。
開始使用 LiteRT為複雜的機器學習功能建構自訂管道
以卓越的方式鏈結多個機器學習模型,搭配前置與後續處理作業,建立自己的任務 邏輯。執行加速 (GPU 和 NPU) 管道,不阻斷 CPU。
開始使用 MediaPipe 架構Google 應用程式採用的工具和架構
探索完整的 AI 邊緣堆疊,其中包含各個層級的產品,從低程式碼 API 到硬體專屬加速程式庫皆囊括其中。
MediaPipe Tasks
使用低程式碼 API,在行動應用程式和網頁應用程式中快速建構 AI 功能,用於常見的生成式 AI、電腦視覺、文字和音訊工作。
生成式 AI
使用現成的 API,將生成式語言和圖像模型直接整合至應用程式。
Vision
探索各種視覺任務,包括區隔、分類、偵測、辨識和身體地標。
文字與廣播。
將文字和音訊分類,包括語言、情緒和自訂類別等多種類別。
MediaPipe 架構
用於建構加速高效能機器學習管線的低階架構,通常包含多個機器學習模型,搭配預先與後續處理作業。
LiteRT
透過最佳化的硬體專屬加速功能,在任何架構中部署以任何架構編寫的 AI 模型,適用於行動、網頁和微控制器。
多架構
將 JAX、Keras、PyTorch 和 TensorFlow 的模型轉換為可在邊緣裝置上執行的模型。
跨平台
透過原生 SDK,在 Android、iOS、網頁和微控制器上執行完全相同的模型。
輕巧快速
LiteRT 的高效率執行階段僅佔用幾 MB 的空間,並支援 CPU、GPU 和 NPU 的模型加速功能。
模式多層檢視
以視覺化方式探索、偵錯及比較模型。重疊顯示效能基準和數值,找出問題熱點。
Android 版 Gemini Nano 和Chrome
使用 Google 最強大的裝置端模型,打造生成式 AI 體驗