মেটাডেটা সহ মডেলের অনুমান করা কোডের কয়েকটি লাইনের মতোই সহজ হতে পারে। LiteRT মেটাডেটা মডেলটি কী করে এবং কীভাবে মডেলটি ব্যবহার করতে হয় তার একটি সমৃদ্ধ বর্ণনা রয়েছে৷ এটি কোড জেনারেটরকে আপনার জন্য স্বয়ংক্রিয়ভাবে অনুমান কোড তৈরি করার ক্ষমতা দিতে পারে, যেমন Android Studio ML বাইন্ডিং বৈশিষ্ট্য বা LiteRT Android কোড জেনারেটর ব্যবহার করা। এটি আপনার কাস্টম ইনফারেন্স পাইপলাইন কনফিগার করতেও ব্যবহার করা যেতে পারে।
টুল এবং লাইব্রেরি
LiteRT বিভিন্ন স্তরের স্থাপনার প্রয়োজনীয়তাগুলি নিম্নরূপ পরিবেশন করার জন্য বিভিন্ন ধরণের সরঞ্জাম এবং লাইব্রেরি সরবরাহ করে:
অ্যান্ড্রয়েড কোড জেনারেটরের সাথে মডেল ইন্টারফেস তৈরি করুন
মেটাডেটা সহ LiteRT মডেলের জন্য প্রয়োজনীয় Android র্যাপার কোড স্বয়ংক্রিয়ভাবে তৈরি করার দুটি উপায় রয়েছে:
অ্যান্ড্রয়েড স্টুডিও এমএল মডেল বাইন্ডিং একটি গ্রাফিকাল ইন্টারফেসের মাধ্যমে LiteRT মডেল আমদানি করতে Android স্টুডিওর মধ্যে উপলব্ধ টুলিং। অ্যান্ড্রয়েড স্টুডিও স্বয়ংক্রিয়ভাবে প্রকল্পের জন্য সেটিংস কনফিগার করবে এবং মডেল মেটাডেটার উপর ভিত্তি করে র্যাপার ক্লাস তৈরি করবে।
LiteRT কোড জেনারেটর হল একটি এক্সিকিউটেবল যা মেটাডেটার উপর ভিত্তি করে স্বয়ংক্রিয়ভাবে মডেল ইন্টারফেস তৈরি করে। এটি বর্তমানে জাভা সহ অ্যান্ড্রয়েড সমর্থন করে। র্যাপার কোডটি ByteBuffer সাথে সরাসরি যোগাযোগ করার প্রয়োজনীয়তাকে সরিয়ে দেয়। পরিবর্তে, বিকাশকারীরা Bitmap এবং Rect মতো টাইপ করা বস্তুর সাথে LiteRT মডেলের সাথে যোগাযোগ করতে পারে। অ্যান্ড্রয়েড স্টুডিও ব্যবহারকারীরা অ্যান্ড্রয়েড স্টুডিও এমএল বাইন্ডিংয়ের মাধ্যমে কোডজেন বৈশিষ্ট্যটিতে অ্যাক্সেস পেতে পারেন।
LiteRT সাপোর্ট লাইব্রেরির সাথে কাস্টম ইনফারেন্স পাইপলাইন তৈরি করুন
LiteRT সাপোর্ট লাইব্রেরি হল একটি ক্রস-প্ল্যাটফর্ম লাইব্রেরি যা মডেল ইন্টারফেস কাস্টমাইজ করতে এবং ইনফারেন্স পাইপলাইন তৈরি করতে সাহায্য করে। এটিতে প্রি/পোস্ট প্রসেসিং এবং ডেটা কনভার্সন করার জন্য বিভিন্ন ধরনের ইউটিল পদ্ধতি এবং ডেটা স্ট্রাকচার রয়েছে। এছাড়াও এটি TF.Image এবং TF.Text-এর মতো TensorFlow মডিউলের আচরণের সাথে মেলে, প্রশিক্ষণ থেকে অনুমান করা পর্যন্ত ধারাবাহিকতা নিশ্চিত করার জন্য ডিজাইন করা হয়েছে।
মেটাডেটা সহ পূর্বপ্রশিক্ষিত মডেলগুলি অন্বেষণ করুন৷
দৃষ্টি এবং পাঠ্য উভয় কাজের জন্য মেটাডেটা সহ পূর্বপ্রশিক্ষিত মডেলগুলি ডাউনলোড করতে Kaggle মডেলগুলি ব্রাউজ করুন৷ এছাড়াও মেটাডেটা ভিজ্যুয়ালাইজ করার বিভিন্ন অপশন দেখুন।
[[["সহজে বোঝা যায়","easyToUnderstand","thumb-up"],["আমার সমস্যার সমাধান হয়েছে","solvedMyProblem","thumb-up"],["অন্যান্য","otherUp","thumb-up"]],[["এতে আমার প্রয়োজনীয় তথ্য নেই","missingTheInformationINeed","thumb-down"],["খুব জটিল / অনেক ধাপ","tooComplicatedTooManySteps","thumb-down"],["পুরনো","outOfDate","thumb-down"],["অনুবাদ সংক্রান্ত সমস্যা","translationIssue","thumb-down"],["নমুনা / কোড সংক্রান্ত সমস্যা","samplesCodeIssue","thumb-down"],["অন্যান্য","otherDown","thumb-down"]],["2025-07-28 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]