Inferir modelos con metadatos puede ser tan fácil como
unas pocas líneas de código. Los metadatos LiteRT contienen una descripción detallada de
qué hace el modelo y cómo usarlo. Puede permitir que los generadores de código
generar automáticamente el código de inferencia por ti, como cuando usas Android
Función de vinculación de AA de Studio o LiteRT
Generador de código de Android. También se puede usar para
configurar tu canalización
de inferencia personalizada.
Herramientas y bibliotecas
LiteRT ofrece una variedad de herramientas y bibliotecas
de implementación de la siguiente manera:
Cómo generar interfaz de modelo con generadores de código de Android
Existen dos maneras de generar automáticamente el código del wrapper de Android necesario
Para el modelo LiteRT con metadatos:
Hay herramientas disponibles para la vinculación de modelos de AA de Android Studio
en Android Studio para importar el modelo LiteRT
interfaz de usuario. Android Studio establecerá automáticamente los parámetros de configuración para las
en tu proyecto y generar clases
de wrapper basadas en los metadatos del modelo.
El Generador de código LiteRT es un archivo ejecutable que
genera una interfaz de modelo automáticamente
en función de los metadatos. Actualmente,
admite Android con Java. El código del wrapper quita la necesidad de interactuar
directamente con ByteBuffer. En cambio, los desarrolladores pueden interactuar con el
Modelo LiteRT con objetos escritos como Bitmap y Rect.
Los usuarios de Android Studio también pueden acceder a la función codegen a través de
Vinculación de AA de Android Studio.
Crea canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de LiteRT
La biblioteca de compatibilidad de LiteRT es una biblioteca multiplataforma.
que ayuda a personalizar la interfaz del modelo y crear canalizaciones de inferencia. Integra
contiene una variedad de métodos de utilidades y estructuras de datos para realizar pruebas de rendimiento
y la conversión de datos. También está diseñado para coincidir con el comportamiento de
de TensorFlow, como TF.Image y TF.Text, que garantizan la coherencia desde
desde el entrenamiento hasta la inferencia.
Explora modelos previamente entrenados con metadatos
Explora los modelos de Kaggle para
descarga modelos previamente entrenados con metadatos para tareas de visión y texto. También
ver diferentes opciones para visualizar el
metadatos.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-07-24 (UTC)"],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]