Menyimpulkan model dengan metadata dapat dilakukan semudah
beberapa baris kode. Metadata LiteRT berisi
deskripsi yang lengkap tentang
fungsi model dan cara menggunakan model tersebut. Dapat memberdayakan generator kode untuk
otomatis membuat kode inferensi untuk Anda, seperti menggunakan perangkat
Fitur Binding ML Studio atau LiteRT
Generator kode Android. Alat ini juga dapat digunakan untuk
dan mengonfigurasi pipeline inferensi kustom Anda.
Alat dan library
LiteRT menyediakan beragam alat dan library untuk melayani
tingkat persyaratan deployment sebagai berikut:
Membuat antarmuka model dengan generator kode Android
Ada dua cara untuk secara otomatis membuat kode wrapper Android yang diperlukan
untuk model LiteRT dengan metadata:
Binding Model ML Android Studio tersedia sebagai alat
dalam Android Studio untuk mengimpor model LiteRT melalui
dalam antarmuka berbasis web
yang sederhana. Android Studio akan otomatis mengonfigurasi setelan untuk
memproyeksikan dan menghasilkan class wrapper berdasarkan metadata model.
Pembuat Kode LiteRT adalah file yang dapat dieksekusi dan
menghasilkan antarmuka model secara otomatis berdasarkan metadata. Saat ini
mendukung Android dengan Java. Kode wrapper menghilangkan kebutuhan untuk berinteraksi
secara langsung dengan ByteBuffer. Sebagai gantinya, developer bisa berinteraksi dengan
Model LiteRT dengan objek yang diketik seperti Bitmap dan Rect.
Pengguna Android Studio juga bisa mendapatkan akses ke fitur pembuatan kode melalui
Binding ML Android Studio.
Membangun pipeline inferensi kustom dengan LiteRT Support Library
Library Dukungan LiteRT adalah library lintas platform
yang membantu menyesuaikan antarmuka model dan membangun pipeline inferensi. Ini
berisi berbagai metode utilitas dan struktur data untuk melakukan pra/pasca
pengolahan data dan konversi data. Hal ini juga dirancang untuk
sesuai dengan perilaku
Modul TensorFlow, seperti TF.Image dan TF.Text, memastikan konsistensi dari
pelatihan untuk inferensi.
Mempelajari model terlatih dengan metadata
Jelajahi Model Kaggle untuk
mendownload model terlatih dengan metadata untuk tugas visi dan teks. Selain itu,
lihat berbagai opsi memvisualisasikan
metadata.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-07-24 UTC."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]