在行動、網頁和嵌入式應用程式中部署 AI

  • 裝置上

    縮短延遲時間。離線工作。將資料保留本機及私人。

  • 跨平台

    在 Android、iOS、網頁和嵌入式中執行相同的模型。

  • 多架構

    與 JAX、Keras、PyTorch 和 TensorFlow 模型相容。

  • 完整 AI 邊緣堆疊

    彈性架構、統包式解決方案、硬體加速器

現成解決方案與彈性架構

執行一般 AI 工作的少量程式碼 API

跨平台 API,可處理常見的生成式 AI、視覺、文字和音訊工作。

開始使用 MediaPipe 工作

跨平台部署自訂模型

在 Android、iOS、網頁和嵌入式裝置上執行 JAX、Keras、PyTorch 和 TensorFlow 模型,並針對傳統機器學習和生成式 AI 進行最佳化。

開始使用 LiteRT
特徵 2

透過圖表縮短開發週期

透過轉換和量化以視覺化方式呈現模型的轉換。重疊基準測試結果,以便偵錯熱點。

開始使用模式多層檢視工具
特徵 1

為複雜的機器學習功能建構自訂管道

以卓越的方式鏈結多個機器學習模型,搭配前置與後續處理作業,建立自己的任務 邏輯。執行加速 (GPU 和 NPU) 管道,不阻斷 CPU。

開始使用 MediaPipe 架構
特徵 2

Google 應用程式採用的工具和架構

探索完整的 AI 邊緣堆疊,其中包含各個層級的產品,從低程式碼 API 到硬體專屬加速程式庫皆囊括其中。

MediaPipe Tasks

使用低程式碼 API,在行動應用程式和網頁應用程式中快速建構 AI 功能,用於常見的生成式 AI、電腦視覺、文字和音訊工作。

生成式 AI

使用現成的 API,將生成式語言和圖像模型直接整合至應用程式。

Vision

探索各種視覺任務,包括區隔、分類、偵測、辨識和身體地標。

文字與廣播。

將文字和音訊分類,包括語言、情緒和自訂類別等多種類別。

MediaPipe 架構

用於建構加速高效能機器學習管線的低階架構,通常包含多個機器學習模型,搭配預先與後續處理作業。

LiteRT

透過最佳化的硬體專屬加速功能,在任何架構中部署以任何架構編寫的 AI 模型,適用於行動、網頁和微控制器。

多架構

將 JAX、Keras、PyTorch 和 TensorFlow 的模型轉換為可在邊緣裝置上執行的模型。

跨平台

透過原生 SDK,在 Android、iOS、網頁和微控制器上執行完全相同的模型。

輕巧快速

LiteRT 的高效率執行階段僅佔用幾 MB 的空間,並支援 CPU、GPU 和 NPU 的模型加速功能。

模式多層檢視

以視覺化方式探索、偵錯及比較模型。重疊顯示效能基準和數值,找出問題熱點。

奈米字元

近期影片和網誌文章