在行動、網頁和嵌入式應用程式中部署 AI

  • 裝置上

    縮短延遲時間。離線作業。將資料保留本機及私人。

  • 跨平台

    在 Android、iOS、網頁和嵌入式中執行同一個模型。

  • 多架構

    與 JAX、Keras、PyTorch 和 TensorFlow 模型相容。

  • 完整 AI 邊緣堆疊

    彈性架構、統包式解決方案、硬體加速器

現成解決方案與彈性架構

執行一般 AI 工作的少量程式碼 API

可處理常見的生成式 AI、視覺、文字和語音工作的跨平台 API。

敬上 開始使用 MediaPipe 工作

跨平台部署自訂模型

在 Android、iOS、網路和嵌入式裝置中執行 JAX、Keras、PyTorch 和 TensorFlow 模型,針對傳統機器學習和生成式 AI 進行最佳化。

敬上 開始使用 LiteRT
特徵 2

以視覺化方式縮短開發週期

透過轉換和量化以視覺化方式呈現模型的轉換。偵錯熱點: 疊加基準測試結果。

敬上 開始使用模型多層檢視
特徵 1

建立適用於複雜機器學習功能的自訂管道

以卓越的方式鏈結多個機器學習模型,搭配前置與後續處理作業,建立自己的任務 邏輯。可在不封鎖 CPU 的情況下執行加速 (GPU 和 NPU) 管道。

敬上 開始使用 MediaPipe 架構
特徵 2

Google 應用程式採用的工具和架構

探索完整的 AI 邊緣堆疊,包括低程式碼 API、硬體專屬加速資料庫等產品。

MediaPipe 工作

使用少量程式碼的 API,快速將 AI 功能建構至行動和網頁應用程式,處理生成式 AI、電腦視覺、文字和音訊等常見工作。

生成式 AI

透過現成可用的 API,將生成式語言和圖片模型直接整合至您的應用程式。

Vision

探索各種視覺任務,包括區隔、分類、偵測、辨識和身體地標。

文字與廣播。

將文字和音訊分類,包括語言、情緒和自訂類別等多種類別。

MediaPipe 架構

用於建構加速高效能機器學習管線的低階架構,通常包含多個機器學習模型,搭配預先與後續處理作業。

LiteRT

透過最佳化硬體專屬加速功能,在任何架構中部署以任何架構編寫的 AI 模型,適用於行動、網頁和微控制器。

多架構

轉換 JAX、Keras、PyTorch 和 TensorFlow 的模型,以便在邊緣執行。

跨平台

透過原生 SDK,在 Android、iOS、網頁和微控制器上執行完全相同的模型。

輕巧快速

LiteRT 的高效率執行階段僅佔用幾 MB 的空間,並支援 CPU、GPU 和 NPU 的模型加速功能。

模式多層檢視

以視覺化方式探索、偵錯及比較模型。疊加成效基準和數值,找出有問題的熱點。

奈米字元

近期影片和網誌文章