Вывод моделей с метаданными может быть таким же простым, как и несколько строк кода. Метаданные LiteRT содержат подробное описание того, что делает модель и как ее использовать. Он может предоставить генераторам кода возможность автоматически генерировать для вас код вывода, например, с помощью функции привязки Android Studio ML или генератора кода LiteRT Android . Его также можно использовать для настройки собственного конвейера вывода.
Инструменты и библиотеки
LiteRT предоставляет множество инструментов и библиотек для удовлетворения различных уровней требований к развертыванию, а именно:
Создайте интерфейс модели с помощью генераторов кода Android.
Существует два способа автоматического создания необходимого кода оболочки Android для модели LiteRT с метаданными:
Привязка модели Android Studio ML — это инструмент, доступный в Android Studio для импорта модели LiteRT через графический интерфейс. Android Studio автоматически настроит параметры проекта и создаст классы-оболочки на основе метаданных модели.
LiteRT Code Generator — это исполняемый файл, который автоматически генерирует интерфейс модели на основе метаданных. В настоящее время он поддерживает Android с Java. Код-обертка устраняет необходимость напрямую взаимодействовать с ByteBuffer . Вместо этого разработчики могут взаимодействовать с моделью LiteRT с помощью типизированных объектов, таких как Bitmap и Rect . Пользователи Android Studio также могут получить доступ к функции генерации кода через Android Studio ML Binding .
Создавайте собственные конвейеры вывода с помощью библиотеки поддержки LiteRT.
Библиотека поддержки LiteRT — это кроссплатформенная библиотека, которая помогает настраивать интерфейс модели и строить конвейеры вывода. Он содержит различные методы использования и структуры данных для выполнения предварительной/постобработки и преобразования данных. Он также разработан для соответствия поведению модулей TensorFlow, таких как TF.Image и TF.Text, обеспечивая согласованность от обучения до вывода.
Изучите предварительно обученные модели с метаданными
Просмотрите модели Kaggle, чтобы загрузить предварительно обученные модели с метаданными как для зрительных, так и для текстовых задач. Также смотрите различные варианты визуализации метаданных .
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2025-07-28 UTC."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]