跨移动应用、Web 应用和嵌入式应用部署 AI
-
已保存在设备上
缩短延迟时间。离线工作。将数据放在本地私密。
-
跨平台
在 Android、iOS、Web 和嵌入式平台上运行同一模型。
-
多框架
与 JAX、Keras、PyTorch 和 TensorFlow 模型兼容。
-
全 AI 边缘堆栈
灵活框架、一站式解决方案、硬件加速器
现成的解决方案和灵活的框架
用于常见 AI 任务的低代码 API
跨平台 API,用于处理常见的生成式 AI、视觉、文本和音频任务。
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> MediaPipe 任务使用入门跨平台部署自定义模型
在 Android、iOS、Web 和嵌入式设备上高效运行 JAX、Keras、PyTorch 和 TensorFlow 模型,并针对传统机器学习和生成式 AI 进行了优化。
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> LitRT 使用入门利用可视化功能缩短开发周期
通过转换和量化直观呈现模型的转换。热点调试方式: 基准结果重叠。
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> 模型分层图表使用入门为复杂的机器学习功能构建自定义流水线
通过预处理和后处理将多个机器学习模型高效地链接在一起,构建您自己的任务 逻辑。运行加速(GPU 和 NPU)流水线,而不会在 CPU 上发生阻塞。
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> MediaPipe 框架使用入门为 Google 应用提供支持的工具和框架
探索完整的 AI 边缘堆栈以及各个级别的产品,从低代码 API 到特定于硬件的加速库。
MediaPipe 任务
使用低代码 API 快速将 AI 功能构建到移动应用和 Web 应用中,执行涉及生成式 AI、计算机视觉、文本和音频的常见任务。
生成式 AI
通过现成可用的 API,将生成式语言和图片模型直接集成到您的应用中。
Vision
探索各种视觉任务,包括分割、分类、检测、识别和身体特征点。
发送短信和音频
跨多个类别(包括语言、情感和您自己的自定义类别)对文本和音频进行分类。
MediaPipe 框架
用于构建高性能加速机器学习流水线的低级框架,通常包括结合预处理和后处理的多个机器学习模型。
LiteRT
在移动设备、Web 应用和微控制器上部署以任何框架编写的 AI 模型,并享受针对特定硬件的优化加速。
多框架
转换 JAX、Keras、PyTorch 和 TensorFlow 中的模型,以便在边缘运行。
跨平台
使用原生 SDK 在 Android、iOS、Web 和微控制器上运行完全相同的模型。
轻巧快捷
LiteRT 的高效运行时仅占用几兆字节空间,支持跨 CPU、GPU 和 NPU 进行模型加速。
模型分层图表
直观地探索、调试和比较您的模型。叠加性能基准和数值以找出有问题的热点。
Android 专用 Gemini Nano 以及Chrome 浏览器
利用 Google 最强大的设备端模型打造生成式 AI 体验