Danneggiare i modelli con i metadati può essere facile come
con poche righe di codice. I metadati LiteRT contengono una ricca descrizione
cosa fa il modello e come utilizzarlo. Può consentire ai generatori di codice di
automaticamente il codice di inferenza, come l'uso della funzione Android
Funzionalità di associazione di Studio ML o LiteRT
generatore di codice Android Può essere utilizzato anche per
e configurare la pipeline di inferenza personalizzata.
Strumenti e librerie
LiteRT offre una varietà di strumenti e librerie per
di deployment come segue:
Genera l'interfaccia del modello con i generatori di codice Android
Esistono due modi per generare automaticamente il codice wrapper Android necessario
per il modello LiteRT con metadati:
Sono disponibili strumenti per l'associazione di modelli ML di Android Studio
in Android Studio per importare il modello LiteRT tramite un
a riga di comando. Android Studio configurerà automaticamente le impostazioni per il
per il progetto e generare classi wrapper in base ai metadati del modello.
Il generatore di codice LiteRT è un eseguibile che
genera automaticamente l'interfaccia del modello
in base ai metadati. Attualmente
supporta Android con Java. Il codice wrapper elimina la necessità di interagire
direttamente con ByteBuffer. Gli sviluppatori possono invece interagire
Modello LiteRT con oggetti digitati come Bitmap e Rect.
Gli utenti di Android Studio possono accedere alla funzionalità di codegen anche tramite
Associazione ML di Android Studio.
Creazione di pipeline di inferenza personalizzate con la libreria di supporto LiteRT
LiteRT Support Library è una libreria multipiattaforma
che aiuta a personalizzare l'interfaccia del modello e a creare pipeline di inferenza. it
contiene varietà di metodi util e strutture di dati per eseguire
l'elaborazione e la conversione dei dati. È inoltre progettato per adattarsi al comportamento
Moduli TensorFlow, come TF.Image e TF.Text, per garantire coerenza
dall'addestramento all'inferenza.
Esplora i modelli preaddestrati con metadati
Scopri i modelli Kaggle per
scaricare modelli preaddestrati con metadati sia per attività di visione artificiale che di testo. Inoltre
vedere diverse opzioni di visualizzazione
metadati.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-07-24 UTC."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]