适用于 LiteRT 的预训练模型

您可以使用各种已经过训练的开源模型 立即使用 LiteRT 完成许多机器学习任务。 通过使用预先训练的 LiteRT 模型,您可以添加机器学习 快速为您的移动设备和边缘设备应用添加新功能, 来构建和训练模型。本指南可帮助您找到并决定 模型,以便与 LiteRT 搭配使用。

您可以开始在 Kaggle 上浏览大量模型 模型

为您的应用寻找模型

为您的用例查找现有 LiteRT 模型可能会很棘手 具体取决于您想要实现的目标以下是几种推荐方法 来发现用于 LiteRT 的模型:

示例:通过 TensorFlow 找到并开始使用模型的最快方法 Lite 是浏览 LiteRT 示例 部分,查找执行与您的用例类似的任务的模型。 这个简短的示例目录提供了适用于常见用例的模型 解释模型和示例代码,以帮助您开始运行和使用 。

按数据输入类型:除了查看与您的使用场景类似的示例之外, 探索供自用模型的另一种方法是考虑 例如音频、文本、图片或视频数据。机器 机器学习模型通常用于以下某种类型的数据, 因此,寻找能够处理你要使用的数据类型的模型有助于你 缩小要考虑的模型范围。

以下列出了 Kaggle 上 LiteRT 模型的链接 适用于常见用例的模型

选择类似的车型

如果您的应用遵循常见用例,例如图像分类或 那么您可能会发现自己决定是使用 Lite 模型,具有不同的二进制大小、数据输入大小、推理速度和 预测准确率评级。在决定选择多种模式时 应首先根据最限制性的约束条件缩小选项范围: 模型、数据大小、推理速度或准确率。

如果您不确定最有限制的约束条件,则假定它是 并选择可用的最小模型。选择一个小模型 您可以用各种设备 部署和运行模型。体积越小,模型生成速度通常 更快速的预测通常能打造更好的最终用户体验, 体验。较小的模型通常具有较低的准确率,因此您可能需要 如果您主要关注预测准确率,则可以选择较大的模型。

模型来源

使用 LiteRT 示例 部分和 Kaggle 模型部分, 查找和选择与 TensorFlow 搭配使用的模型的第一个目标 精简版。这些来源通常拥有最新的精选模型, LiteRT 并经常包含示例代码,以加快您的 开发过程。

TensorFlow 模型

您可以将常规 TensorFlow 模型转换为 TensorFlow Lite 格式。如需详细了解如何转换模型,请参阅 TensorFlow Lite Converter 文档。您可以在 Kaggle 模型TensorFlow 模型 花园