在行動、網頁和嵌入式應用程式中部署 AI

  • 裝置上

    縮短延遲時間。離線工作。將資料保留在本機並確保隱私。

  • 跨平台

    在 Android、iOS、網頁和嵌入式中執行相同的模型。

  • 多架構

    相容於 JAX、Keras、PyTorch 和 TensorFlow 模型。

  • 完整 AI 邊緣堆疊

    彈性架構、一鍵式解決方案、硬體加速器

現成解決方案和彈性架構

適用於常見 AI 工作流程的低程式碼 API

跨平台 API,可處理常見的生成式 AI、視覺、文字和音訊工作。

開始使用 MediaPipe 任務

跨平台部署自訂模型

在 Android、iOS、網頁和嵌入式裝置上執行 JAX、Keras、PyTorch 和 TensorFlow 模型,並針對傳統機器學習和生成式 AI 進行最佳化。

開始使用 LiteRT
特徵 2

運用圖表縮短開發週期

透過轉換和量化,以視覺化方式呈現模型的轉換。重疊基準測試結果,以便偵錯熱點。

開始使用模式多層檢視工具
特徵 1

為複雜的機器學習功能建構自訂管道

透過鏈結多個機器學習模型,並搭配前後處理邏輯,建構自己的工作。執行加速 (GPU 和 NPU) 管道,不阻斷 CPU。

開始使用 MediaPipe Framework
特徵 2

支援 Google 應用程式的工具和架構

探索完整的 AI 邊緣堆疊,其中包含各個層級的產品,從低程式碼 API 到硬體專屬加速程式庫皆囊括其中。

MediaPipe Tasks

使用低程式碼 API,在行動應用程式和網頁應用程式中快速建構 AI 功能,用於常見的生成式 AI、電腦視覺、文字和音訊工作。

生成式 AI

使用現成的 API,將生成式語言和圖像模型直接整合至應用程式。

Vision

探索多種視覺工作,包括區隔、分類、偵測、辨識和人體標記。

文字和音訊

將文字和音訊分類至多個類別,包括語言、情緒和您自訂的類別。

MediaPipe 架構

用於建構高效加速機器學習管道的低階架構,通常會結合多個機器學習模型,並搭配前後處理。

LiteRT

在行動裝置、網頁和微控制器上部署使用任何架構編寫的 AI 模型,並享有最佳化的硬體專屬加速功能。

多架構

將 JAX、Keras、PyTorch 和 TensorFlow 的模型轉換為可在邊緣裝置上執行的模型。

跨平台

在 Android、iOS、網頁和微控制器上,使用原生 SDK 執行相同的模型。

輕巧快速

LiteRT 的執行階段效率極高,只會佔用幾 MB 的空間,並可在 CPU、GPU 和 NPU 之間加速模型。

Model Explorer

以視覺化方式探索、偵錯及比較模型。重疊顯示效能基準和數值,找出問題熱點。

納諾字元

近期影片和網誌文章