Существует множество уже обученных моделей с открытым исходным кодом, которые можно сразу использовать с LiteRT для решения множества задач машинного обучения. Использование предварительно обученных моделей LiteRT позволяет быстро добавлять функции машинного обучения в приложения для мобильных устройств и периферийных устройств без необходимости создания и обучения модели. Это руководство поможет вам найти и выбрать обученные модели для использования с LiteRT.
Вы можете начать просматривать большой набор моделей на Kaggle Models .
Найдите модель для вашего приложения
Поиск готовой модели LiteRT для вашего варианта использования может быть непростой задачей в зависимости от ваших задач. Вот несколько рекомендуемых способов поиска моделей для использования с LiteRT:
Пример: Самый быстрый способ найти и начать использовать модели с TensorFlow Lite — просмотреть раздел «Примеры LiteRT» , чтобы найти модели, выполняющие задачу, аналогичную вашему варианту использования. Этот краткий каталог примеров содержит модели для распространённых вариантов использования с пояснениями и примерами кода, которые помогут вам начать работу с ними.
По типу входных данных: Помимо поиска примеров, аналогичных вашему варианту использования, ещё один способ найти модели для собственного использования — это учесть тип данных, которые вы хотите обрабатывать, например, аудио, текст, изображения или видео. Модели машинного обучения часто разрабатываются для работы с одним из этих типов данных, поэтому поиск моделей, обрабатывающих нужный вам тип данных, может помочь вам сузить круг рассматриваемых моделей.
Ниже приведен список ссылок на модели LiteRT на Kaggle Models для распространенных случаев использования:
- Модели классификации изображений
- Модели обнаружения объектов
- Модели классификации текста
- Модели встраивания текста
- Модели синтеза аудиоречи
- Модели встраивания аудио
Выбирайте между похожими моделями
Если ваше приложение соответствует распространённому сценарию использования, например, классификации изображений или обнаружения объектов, вам может потребоваться выбрать между несколькими моделями TensorFlow Lite с различными двоичными размерами, объёмом входных данных, скоростью вывода и точностью прогнозов. Выбирая между несколькими моделями, следует сначала сузить выбор, исходя из наиболее ограничивающих ограничений: размера модели, объёма данных, скорости вывода или точности.
Если вы не уверены, какое ограничение является для вас наиболее ограничивающим, предположите, что это размер модели, и выберите наименьшую из доступных. Выбор наименьшей модели обеспечивает наибольшую гибкость в выборе устройств, на которых её можно успешно развернуть и запустить. Меньшие модели также обычно обеспечивают более быстрые выводы, а более быстрые прогнозы, как правило, обеспечивают более качественный пользовательский опыт. Меньшие модели, как правило, имеют более низкую точность, поэтому, если точность прогнозов для вас важнее всего, вам может потребоваться выбрать более крупные модели.
Источники моделей
Используйте раздел «Примеры LiteRT» и Kaggle Models в качестве первоочередных ресурсов для поиска и выбора моделей для использования с TensorFlow Lite. Эти источники, как правило, содержат актуальные, проверенные модели для использования с LiteRT и часто включают примеры кода для ускорения процесса разработки.
Модели TensorFlow
Обычные модели TensorFlow можно преобразовать в формат TensorFlow Lite. Подробнее о конвертации моделей см. в документации к TensorFlow Lite Converter . Модели TensorFlow можно найти на Kaggle Models и в TensorFlow Model Garden .