Inferir modelos com metadados pode ser tão fácil quanto
algumas linhas de código. Os metadados LiteRT contêm uma descrição rica de
o que o modelo faz e como usá-lo. Ele pode capacitar geradores de código para
gerar automaticamente o código de inferência para você, como ao usar a API do Android
Recurso de vinculação de ML do Studio ou LiteRT
Gerador de código do Android. Ele também pode ser usado para
e configurar seu pipeline de inferência personalizado.
Ferramentas e bibliotecas
A LiteRT oferece variedades de ferramentas e bibliotecas para atender
níveis de requisitos de implantação da seguinte forma:
Gerar uma interface de modelo com geradores de código do Android
Há duas maneiras de gerar automaticamente o código necessário do wrapper do Android
para o modelo LiteRT com metadados:
Ferramentas disponíveis na API Android Studio ML Model Binding.
no Android Studio para importar o modelo LiteRT por uma interface gráfica
interface gráfica do usuário. O Android Studio definirá automaticamente as configurações do
e gerar classes de wrapper com base nos metadados do modelo.
O Gerador de código LiteRT é um executável que
gera uma interface de modelo automaticamente com base nos metadados. Atualmente,
oferece suporte ao Android com Java. O código wrapper elimina a necessidade de interagir
diretamente com ByteBuffer. Em vez disso, os desenvolvedores podem interagir
Modelo LiteRT com objetos tipados, como Bitmap e Rect.
Os usuários do Android Studio também podem acessar o recurso Codegen pelos
Vinculação de ML do Android Studio.
Criar pipelines de inferência personalizados com a Biblioteca de Suporte LiteRT
A Biblioteca de Suporte LiteRT é uma biblioteca multiplataforma.
que ajuda a personalizar a interface do modelo e criar pipelines de inferência. Ela
contém variedades de métodos utilitários e estruturas de dados para realizar pré/pós-testes
e conversão de dados. Ele também foi projetado para corresponder ao comportamento
módulos do TensorFlow, como TF.Image e TF.Text, que garantem a consistência
do treinamento até a inferência.
Explorar modelos pré-treinados com metadados
Navegue por Modelos Kaggle para
fazer o download de modelos pré-treinados com metadados para tarefas de visão e texto. Além disso,
ver opções diferentes de visualização do
metadados.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-24 UTC."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]