L'inférence de modèles avec des métadonnées est un jeu d'enfant
quelques lignes de code. Les métadonnées LiteRT contiennent
une description détaillée de
ce que fait le modèle et comment l'utiliser. Il peut permettre aux générateurs de code
générer automatiquement le code d'inférence, par exemple à l'aide de la classe Android
Studio ML Binding ou LiteRT
Générateur de code Android Il peut également être utilisé pour
configurer votre pipeline d'inférence personnalisé.
Outils et bibliothèques
LiteRT fournit différents outils et bibliothèques pour répondre
d'exigences de déploiement, comme suit:
Générer une interface de modèle avec les générateurs de code Android
Il existe deux façons de générer automatiquement le code wrapper Android nécessaire.
Pour le modèle LiteRT avec des métadonnées:
Des outils sont disponibles pour la liaison de modèles de ML d'Android Studio.
dans Android Studio pour importer un modèle LiteRT via un graphique
de commande. Android Studio configure automatiquement les paramètres
et générer des classes wrapper basées sur les métadonnées du modèle.
Le générateur de code LiteRT est un exécutable
génère automatiquement une interface de modèle en fonction des métadonnées. Actuellement
est compatible avec Android avec Java. Le code du wrapper élimine la nécessité d'interagir
directement avec ByteBuffer. Au lieu de cela, les développeurs peuvent interagir avec
Modèle LiteRT avec des objets typés tels que Bitmap et Rect
Les utilisateurs d'Android Studio peuvent également accéder à la fonctionnalité de génération de code via
Liaison ML Android Studio
Créer des pipelines d'inférence personnalisés avec la bibliothèque Support LiteRT
La bibliothèque Support LiteRT est une bibliothèque multiplate-forme
qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il
contient diverses méthodes et structures de données utiles pour effectuer des opérations avant/après
le traitement et la conversion des données. Il est également conçu pour s'adapter au comportement
les modules TensorFlow, tels que TF.Image et TF.Text, pour assurer la cohérence
l'entraînement aux inférences.
Explorer des modèles pré-entraînés avec des métadonnées
Parcourez les modèles Kaggle pour
télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Aussi
les différentes options de visualisation
métadonnées.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/24 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/07/24 (UTC)."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]