يوفر LiteRT مجموعة متنوعة من الأدوات والمكتبات لخدمة
ومستويات متطلبات النشر على النحو التالي:
إنشاء واجهة نموذج باستخدام أدوات إنشاء الرموز البرمجية من Android
هناك طريقتان لإنشاء رمز برنامج تضمين Android تلقائيًا.
لنموذج LiteRT مع بيانات التعريف:
ميزة ربط نماذج تعلُّم الآلة في "استوديو Android" متاحة
في Android Studio لاستيراد نموذج LiteRT من خلال نموذج
من واجهة pyplot. سيعمل "استوديو Android" تلقائيًا على ضبط إعدادات
وإنشاء فئات برامج تضمين بناءً على بيانات النموذج الوصفية.
منشئ رمز LiteRT هو ملف قابل للتنفيذ
تنشئ واجهة نموذج تلقائيًا استنادًا إلى البيانات الوصفية. هي حاليًا
يتوافق مع Android مع جافا. يلغي رمز التضمين الحاجة إلى التفاعل
مباشرةً مع "ByteBuffer" بدلاً من ذلك، يمكن للمطوّرين التفاعل مع
تمثّل هذه السمة نموذج LiteRT مع عناصر مكتوبة، مثل Bitmap وRect.
يمكن لمستخدمي "استوديو Android" أيضًا الاستفادة من ميزة إنشاء الترميز من خلال
ربط تعلُّم الآلة في "استوديو Android"
إنشاء مسارات استنتاج مخصّصة باستخدام مكتبة دعم LiteRT
مكتبة دعم LiteRT هي مكتبة من عدّة منصات.
التي تساعد في تخصيص واجهة النموذج وإنشاء مسارات الاستنتاج. أُنشأها جون هنتر، الذي كان متخصصًا
يحتوي على مجموعة متنوعة من طرق الاستخدام وهياكل البيانات لإجراء ما قبل/بعد
المعالجة وتحويل البيانات. كما صُممت أيضًا لمطابقة سلوك
التي تضمن اتساق وحدات TensorFlow، مثل TF.Image وTF.Text،
التدريب على الاستدارة.
استكشاف النماذج المدرّبة مسبقًا باستخدام البيانات الوصفية
تصفح نماذج Kaggle من أجل
تنزيل نماذج مدربة مسبقًا تتضمن بيانات وصفية لكل من مهام الرؤية والمهام النصية. كذلك
الاطلاع على الخيارات المختلفة لتصور
البيانات الوصفية.
تاريخ التعديل الأخير: 2025-07-24 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-24 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]