Das Ableiten von Modellen mit Metadaten
ein paar Zeilen Code schreiben. LiteRT-Metadaten enthalten eine ausführliche Beschreibung
was das Modell tut und wie es verwendet wird. Damit können Code-Generatoren
automatisch den Inferenzcode für Sie generieren, beispielsweise mithilfe der Android-
Studio ML-Bindungsfunktion oder LiteRT
Android-Codegenerator Es kann auch verwendet werden, um
Ihre benutzerdefinierte Inferenzpipeline konfigurieren.
Tools und Bibliotheken
LiteRT bietet verschiedene Tools und Bibliotheken für
wie folgt definiert werden:
Modellschnittstelle mit Android-Codegeneratoren generieren
Es gibt zwei Möglichkeiten, den erforderlichen Android-Wrapper-Code automatisch zu generieren.
für LiteRT-Modell mit Metadaten:
Android Studio ML-Modellbindung ist verfügbar
in Android Studio nutzen, um LiteRT-Modelle über eine grafische
. Android Studio konfiguriert automatisch die Einstellungen für
Projekt erstellen und Wrapper-Klassen basierend auf den Modellmetadaten generieren.
Der LiteRT Code Generator ist eine ausführbare Datei,
die Modellschnittstelle automatisch
basierend auf den Metadaten generiert. Aktuell
unterstützt Android mit Java. Dank des Wrapper-Codes ist keine Interaktion erforderlich
direkt mit ByteBuffer. Stattdessen können Entwickelnde mit dem
LiteRT-Modell mit typisierten Objekten wie Bitmap und Rect.
Android Studio-Nutzer können auch über
Android Studio ML-Bindung.
Benutzerdefinierte Inferenzpipelines mit der LiteRT Support Library erstellen
Die LiteRT Support Library ist eine plattformübergreifende Bibliothek.
mit dem Sie die Modellschnittstelle anpassen
und Inferenzpipelines erstellen können. Es
enthält verschiedene Util-Methoden und Datenstrukturen für Vorher-Nachher-Vergleiche
und Datenkonvertierung. Er ist außerdem so konzipiert, dass er dem Verhalten
TensorFlow-Module wie TF.Image und TF.Text, die für Konsistenz
vom Training bis zur Ableitung.
Vortrainierte Modelle mit Metadaten untersuchen
Kaggle-Modelle ansehen nach
Laden Sie vortrainierte Modelle mit Metadaten für Vision- und Textaufgaben herunter. Ebenfalls
verschiedene Optionen zur Visualisierung der
Metadaten.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-07-24 (UTC)."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]