适用于 TensorFlow Lite 的预训练模型

有各种已经过训练的开源模型可以立即与 TensorFlow Lite 搭配使用,以完成许多机器学习任务。通过使用预训练的 TensorFlow Lite 模型,您可以快速向移动设备和边缘设备应用添加机器学习功能,而无需构建和训练模型。本指南可帮助您查找并确定用于 TensorFlow Lite 的经过训练的模型。

您可以开始在 Kaggle 模型上浏览大量模型。

为您的应用寻找模型

为您的用例查找现有 TensorFlow Lite 模型可能会比较棘手,具体取决于您要实现的目标。以下是发现可用于 TensorFlow Lite 的模型的几种推荐方法:

举例:在 TensorFlow Lite 中查找并开始使用模型的最快方法是浏览 TensorFlow Lite 示例部分,查找可执行与您的用例类似的任务的模型。这个简短的示例目录提供了适用于常见用例的模型,并提供了模型说明和示例代码,可帮助您开始运行和使用它们。

按数据输入类型:除了查看与您的用例类似的示例之外,探索供自用模型的另一种方法是考虑您要处理的数据类型,例如音频、文本、图片或视频数据。机器学习模型通常设计为与其中一种类型的数据搭配使用,因此寻找能够处理您要使用的数据类型的模型有助于缩小要考虑使用的模型范围。

下面列出了适用于常见用例的 Kaggle 模型上 TensorFlow Lite 模型的链接:

选择类似的车型

如果您的应用遵循常见用例(例如图像分类或对象检测),那么您可能会发现自己在多个具有不同二进制大小、数据输入大小、推理速度和预测准确率评分的 TensorFlow Lite 模型之间做出取舍。在决定多个模型时,您应该首先根据最严格的限制条件来缩小选项范围:模型大小、数据大小、推理速度或准确率。

如果您不确定最有限制的约束条件,请假设它是模型的大小,然后选择可用的最小模型。对于能够成功部署和运行模型的设备,选择小型模型可以为您提供最大的灵活性。较小的模型通常也会产生更快的推断,而更快的预测通常可以打造更好的最终用户体验。较小的模型通常具有较低的准确率,因此如果您主要关注预测准确率,则可能需要选择较大的模型。

模型来源

如需查找和选择要与 TensorFlow Lite 搭配使用的模型,您可以先查看 TensorFlow Lite 示例部分和 Kaggle 模型。这些源代码通常具有可用于 TensorFlow Lite 的最新精选模型,并且经常包含示例代码以加速您的开发流程。

TensorFlow 模型

您可以将常规 TensorFlow 模型转换为 TensorFlow Lite 格式。如需详细了解如何转换模型,请参阅 TensorFlow Lite 转换器文档。您可以在 Kaggle 模型TensorFlow Model Garden 中找到 TensorFlow 模型。