Предварительно обученные модели для LiteRT

Существует множество уже обученных моделей с открытым исходным кодом, которые вы можете сразу использовать с LiteRT для выполнения многих задач машинного обучения. Использование предварительно обученных моделей LiteRT позволяет быстро добавлять функции машинного обучения в приложение для мобильных и периферийных устройств без необходимости создания и обучения модели. Это руководство поможет вам найти и выбрать обученные модели для использования с LiteRT.

Вы можете начать просматривать большой набор моделей на Kaggle Models .

Найдите модель для вашего приложения

Найти существующую модель LiteRT для вашего варианта использования может быть непросто, в зависимости от того, чего вы пытаетесь достичь. Вот несколько рекомендуемых способов поиска моделей для использования с LiteRT:

На примере: самый быстрый способ найти и начать использовать модели с TensorFlow Lite — просмотреть раздел «Примеры LiteRT» и найти модели, выполняющие задачу, аналогичную вашему варианту использования. В этом кратком каталоге примеров представлены модели для распространенных случаев использования с пояснениями моделей и примером кода, которые помогут вам начать их использовать.

По типу ввода данных. Помимо рассмотрения примеров, аналогичных вашему варианту использования, еще один способ найти модели для собственного использования — это рассмотреть тип данных, которые вы хотите обрабатывать, например аудио, текст, изображения или видеоданные. Модели машинного обучения часто разрабатываются для использования с одним из этих типов данных, поэтому поиск моделей, обрабатывающих тот тип данных, который вы хотите использовать, может помочь вам сузить круг рассматриваемых моделей.

Ниже приведены ссылки на модели LiteRT на Kaggle Models для распространенных случаев использования:

Выбирайте между похожими моделями

Если ваше приложение соответствует обычному сценарию использования, такому как классификация изображений или обнаружение объектов, вы можете выбирать между несколькими моделями TensorFlow Lite с различным двоичным размером, размером входных данных, скоростью вывода и рейтингами точности прогнозирования. При выборе между несколькими моделями вам следует сузить варианты, основываясь в первую очередь на наиболее ограничивающем ограничении: размере модели, размере данных, скорости вывода или точности.

Если вы не уверены, какое ограничение является для вас наиболее ограничивающим, предположите, что это размер модели, и выберите самую маленькую доступную модель. Выбор небольшой модели дает вам максимальную гибкость с точки зрения устройств, на которых вы можете успешно развернуть и запустить модель. Модели меньшего размера также обычно позволяют быстрее делать выводы, а более быстрые прогнозы обычно улучшают качество обслуживания конечных пользователей. Меньшие модели обычно имеют более низкий уровень точности, поэтому вам может потребоваться выбрать более крупные модели, если точность прогнозирования является вашей главной заботой.

Исходники моделей

Используйте раздел «Примеры LiteRT» и «Модели Kaggle» в качестве первых пунктов назначения для поиска и выбора моделей для использования с TensorFlow Lite. Эти источники обычно содержат актуальные, проверенные модели для использования с LiteRT и часто включают примеры кода для ускорения процесса разработки.

Модели TensorFlow

Обычные модели TensorFlow можно конвертировать в формат TensorFlow Lite. Дополнительную информацию о преобразовании моделей см. в документации по конвертеру TensorFlow Lite . Вы можете найти модели TensorFlow на Kaggle Models и в саду моделей TensorFlow .