跨移动应用、Web 应用和嵌入式应用部署 AI

  • 已保存在设备上

    缩短延迟时间。离线工作。将数据放在本地私密。

  • 跨平台

    在 Android、iOS、Web 和嵌入式平台上运行同一模型。

  • 多框架

    与 JAX、Keras、PyTorch 和 TensorFlow 模型兼容。

  • 全 AI 边缘堆栈

    灵活框架、一站式解决方案、硬件加速器

现成的解决方案和灵活的框架

用于常见 AI 任务的低代码 API

跨平台 API,用于处理常见的生成式 AI、视觉、文本和音频任务。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 敬上 敬上 MediaPipe 任务使用入门

跨平台部署自定义模型

在 Android、iOS、Web 和嵌入式设备上高效运行 JAX、Keras、PyTorch 和 TensorFlow 模型,并针对传统机器学习和生成式 AI 进行了优化。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 敬上 敬上 LitRT 使用入门
特征 2

利用可视化功能缩短开发周期

通过转换和量化直观呈现模型的转换。热点调试方式: 基准结果重叠。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 敬上 敬上 模型分层图表使用入门
特征 1

为复杂的机器学习功能构建自定义流水线

通过预处理和后处理将多个机器学习模型高效地链接在一起,构建您自己的任务 逻辑。运行加速(GPU 和 NPU)流水线,而不会在 CPU 上发生阻塞。

<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 敬上 敬上 MediaPipe 框架使用入门
特征 2

为 Google 应用提供支持的工具和框架

探索完整的 AI 边缘堆栈以及各个级别的产品,从低代码 API 到特定于硬件的加速库。

MediaPipe 任务

使用低代码 API 快速将 AI 功能构建到移动应用和 Web 应用中,执行涉及生成式 AI、计算机视觉、文本和音频的常见任务。

生成式 AI

通过现成可用的 API,将生成式语言和图片模型直接集成到您的应用中。

Vision

探索各种视觉任务,包括分割、分类、检测、识别和身体特征点。

发送短信和音频

跨多个类别(包括语言、情感和您自己的自定义类别)对文本和音频进行分类。

MediaPipe 框架

用于构建高性能加速机器学习流水线的低级框架,通常包括结合预处理和后处理的多个机器学习模型。

<ph type="x-smartling-placeholder"></ph> 开始设置

LiteRT

在移动设备、Web 应用和微控制器上部署以任何框架编写的 AI 模型,并享受针对特定硬件的优化加速。

多框架

转换 JAX、Keras、PyTorch 和 TensorFlow 中的模型,以便在边缘运行。

跨平台

使用原生 SDK 在 Android、iOS、Web 和微控制器上运行完全相同的模型。

轻巧快捷

LiteRT 的高效运行时仅占用几兆字节空间,支持跨 CPU、GPU 和 NPU 进行模型加速。

模型分层图表

直观地探索、调试和比较您的模型。叠加性能基准和数值以找出有问题的热点。

<ph type="x-smartling-placeholder"></ph> 开始设置
nano 字符

近期的视频和博文