המסקנות של מודלים בעזרת מטא-נתונים יכולה להיות קלה
כמה שורות קוד. מטא-נתונים של LiteRT מכילים תיאור עשיר של
מה המודל עושה ואיך להשתמש בו. הוא יכול לספק מחוללי קוד
יוצרת עבורכם את קוד ההסקה באופן אוטומטי, כמו למשל באמצעות
התכונה של Studio ML Binding או LiteRT
מחולל קוד ל-Android. אפשר להשתמש בו גם כדי
להגדיר את צינור ההסקה בהתאמה אישית.
כלים וספריות
פלטפורמת LiteRT מספקת מגוון כלים וספריות להצגת מודעות
של דרישות הפריסה:
יצירת ממשק מודלים באמצעות מחוללי קוד של Android
יש שתי דרכים ליצור באופן אוטומטי את קוד ה-wrapper הנדרש של Android
למודל LiteRT עם מטא-נתונים:
נעשה שימוש בכלי קישור מודלים של למידת מכונה ב-Android Studio
ב-Android Studio כדי לייבא מודל LiteRT באמצעות
גרפי. Android Studio יקבע באופן אוטומטי את ההגדרות של
בפרויקט וליצור מחלקות wrapper על סמך המטא-נתונים של המודל.
LiteRT Code Generator הוא קובץ הפעלה
יוצר ממשק של מודל באופן אוטומטי על סמך המטא-נתונים. כרגע זה
שתומך ב-Android עם Java. קוד ה-wrapper מבטל את הצורך באינטראקציה
ישירות מול ByteBuffer. במקום זאת, המפתחים יכולים להשתמש
מודל LiteRT עם אובייקטים מוקלדים כמו Bitmap ו-Rect.
משתמשי Android Studio יכולים גם לקבל גישה לתכונה 'יצירת קוד' דרך
קישור ל-Android Studio ML.
פיתוח צינורות עיבוד נתונים מותאמים אישית להסקת מסקנות בעזרת ספריית התמיכה של LiteRT
ספריית התמיכה של LiteRT היא ספרייה שפועלת בפלטפורמות שונות
שעוזר להתאים אישית את ממשק המודל ולפתח צינורות עיבוד נתונים להסקת מסקנות. הוא
כולל מגוון שיטות לשימוש ומבני נתונים לביצוע לפני הפרסום
עיבוד והמרת נתונים. הוא גם נועד להתאים להתנהגות של
המודולים של TensorFlow, כמו TF.Image ו-TF.Text, שמבטיחות עקביות
אימון להסקת מסקנות.
מודלים שעברו אימון מראש בעזרת מטא-נתונים
עיון במודלים של Kaggle כדי:
להוריד מודלים שעברו אימון מראש עם מטא-נתונים גם למשימות של ראייה ממוחשבת וגם של משימות טקסט. וגם
לראות אפשרויות שונות להצגה חזותית
מטא-נתונים.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-07-24 (שעון UTC)."],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]