高效的转化、运行时和设备端机器学习优化。
LiteRT 不仅是新产品,还是全球部署最广泛的机器学习运行时的新一代产品。它为数以十亿计的设备提供支持,让您每天使用的应用能够以低延迟和高隐私保护的方式运行。

深受最关键的 Google 应用的信赖

超过 10 万款应用,数十亿全球用户

LiteRT 亮点

通过 LiteRT 部署

使用 .tflite 预训练模型或将 PyTorch、JAX 或 TensorFlow 模型转换为 .tflite
(可选)量化模型
选择所需的加速器并在 LiteRT 上运行

示例、模型和演示

教程将通过完整的端到端示例向您展示如何使用 LiteRT。
经过预先训练的开箱即用生成式 AI 模型。
展示设备端 ML/GenAI 用例的图库