适用于 LiteRT 的预训练 TensorFlow 和 Keras 模型

您可以使用 LiteRT 立即使用各种已训练的开源模型来完成许多机器学习任务。使用预训练的 LiteRT 模型,您可以快速向移动设备和边缘设备应用添加机器学习功能,而无需构建和训练模型。本指南可帮助您查找和确定要与 LiteRT 搭配使用的已训练模型。

您可以开始浏览 Kaggle Models 上的大量模型。

为您的应用寻找模型

根据您要实现的目标,为您的使用场景寻找现有的 LiteRT 模型可能比较棘手。以下是推荐的几种发现可与 LiteRT 搭配使用的模型的方法:

通过示例:查找并开始使用 TensorFlow Lite 模型的最佳方式是浏览 LiteRT 示例部分,找到可执行与您的使用情形类似的任务的模型。此简短的示例目录提供了常见用例的模型,并附有模型说明和示例代码,可帮助您开始运行和使用这些模型。

按数据输入类型:除了查看与您的使用场景类似的示例之外,您还可以考虑要处理的数据类型(例如音频、文本、图片或视频数据),从而发现适合自己使用的模型。机器学习模型通常设计为与这些类型的数据搭配使用,因此寻找能够处理您想要使用的数据类型的模型有助于缩小模型选择范围。

以下列表包含指向 Kaggle Models 上 LiteRT 模型的链接,这些模型适用于常见用例:

在类似型号之间进行选择

如果您的应用遵循常见的用例(例如图片分类或对象检测),您可能会发现自己需要在多个 TensorFlow Lite 模型之间做出选择,这些模型的二进制大小、数据输入大小、推理速度和预测准确度各不相同。在多种模型之间做出选择时,您应首先根据最严格的限制条件(模型大小、数据大小、推理速度或准确率)缩小选择范围。

如果您不确定最严格的限制条件是什么,请假设它是模型的大小,并选择最小的可用模型。选择小型模型可让您在成功部署和运行模型的设备方面获得最大的灵活性。较小的模型通常还能更快地生成推理结果,而更快的预测速度通常能带来更好的最终用户体验。较小的模型通常准确率较低,因此如果预测准确率是您的主要考虑因素,您可能需要选择较大的模型。

模型来源

您可以先前往 LiteRT 示例部分和 Kaggle 模型,查找并选择要与 TensorFlow Lite 搭配使用的模型。这些来源通常提供最新的精选模型,可用于 LiteRT,并且经常包含示例代码,以加快您的开发流程。

TensorFlow 模型

您可以将常规 TensorFlow 模型转换为 TensorFlow Lite 格式。如需详细了解如何转换模型,请参阅 TensorFlow Lite 转换器文档。您可以在 Kaggle ModelsTensorFlow 模型集合中找到 TensorFlow 模型。