在移动、Web 和嵌入式应用中部署 AI

  • 已保存在设备上

    缩短延迟时间。离线工作。将您的数据保留在本地并保护其隐私。

  • 跨平台

    在 Android、iOS、Web 和嵌入式设备上运行相同的模型。

  • 多框架

    与 JAX、Keras、PyTorch 和 TensorFlow 模型兼容。

  • 全 AI 边缘堆栈

    灵活框架、一站式解决方案、硬件加速器

现成解决方案和灵活框架

用于常见 AI 任务的低代码 API

跨平台 API,用于处理常见的生成式 AI、视觉、文本和音频任务。

开始使用 MediaPipe Tasks

跨平台部署自定义模型

在 Android、iOS、Web 和嵌入式设备上高效运行 JAX、Keras、PyTorch 和 TensorFlow 模型,并针对传统机器学习和生成式 AI 进行了优化。

开始使用 LiteRT
特征 2

利用可视化功能缩短开发周期

通过转换和量化直观呈现模型的转换。热点调试方式: 基准结果重叠。

模型分层图表使用入门
特征 1

为复杂的机器学习功能构建自定义流水线

通过预处理和后处理将多个机器学习模型高效地链接在一起,构建您自己的任务 逻辑。运行加速型(GPU 和 NPU)流水线,而不会阻塞 CPU。

开始使用 MediaPipe 框架
特征 2

为 Google 应用提供支持的工具和框架

探索完整的 AI 边缘堆栈,其中涵盖从低代码 API 到硬件专用加速库在内的各个级别的产品。

MediaPipe 任务

使用低代码 API 快速将 AI 功能构建到移动应用和 Web 应用中,执行涉及生成式 AI、计算机视觉、文本和音频的常见任务。

生成式 AI

使用现成的 API 将生成式语言和图片模型直接集成到您的应用中。

Vision

探索各种视觉任务,涵盖分割、分类、检测、识别和身体地标。

发送短信和音频

对文本和音频进行分类,涵盖语言、情感和您自己的自定义类别等多个类别。

MediaPipe 框架

用于构建高性能加速机器学习流水线的低级框架,通常包括结合预处理和后处理的多个机器学习模型。

LiteRT

借助经过优化的硬件专用加速功能,在移动设备、Web 和微控制器上部署使用任何框架编写的 AI 模型。

多框架

将 JAX、Keras、PyTorch 和 TensorFlow 中的模型转换为可在边缘设备上运行的模型。

跨平台

使用原生 SDK 在 Android、iOS、Web 和微控制器上运行完全相同的模型。

轻巧快捷

LiteRT 的高效运行时仅占用几兆字节空间,支持跨 CPU、GPU 和 NPU 进行模型加速。

模型分层图表

直观地探索、调试和比较您的模型。叠加性能基准和数值以找出有问题的热点。

纳个字符

近期的视频和博文