انواع مختلفی از مدلهای منبع باز آموزش دیده وجود دارد که میتوانید بلافاصله با LiteRT برای انجام بسیاری از وظایف یادگیری ماشینی استفاده کنید. استفاده از مدلهای LiteRT از پیش آموزشدیده به شما امکان میدهد بدون نیاز به ساخت و آموزش مدل، عملکرد یادگیری ماشین را به سرعت به برنامه موبایل و دستگاه لبه خود اضافه کنید. این راهنما به شما کمک می کند مدل های آموزش دیده را برای استفاده با LiteRT پیدا کنید و در مورد آنها تصمیم بگیرید.
می توانید مرور مجموعه بزرگی از مدل ها را در Kaggle Models شروع کنید.
یک مدل برای برنامه خود پیدا کنید
یافتن یک مدل LiteRT موجود برای مورد استفاده شما بسته به آنچه میخواهید انجام دهید میتواند دشوار باشد. در اینجا چند روش توصیه شده برای کشف مدل هایی برای استفاده با LiteRT وجود دارد:
به عنوان مثال: سریعترین راه برای یافتن و شروع استفاده از مدلها با TensorFlow Lite، مرور بخش LiteRT Examples برای یافتن مدلهایی است که کار مشابهی را انجام میدهند. این کاتالوگ کوتاه از نمونهها، مدلهایی را برای موارد استفاده متداول با توضیحاتی در مورد مدلها و کد نمونه ارائه میکند تا شما را شروع به اجرا و استفاده از آنها کند.
بر اساس نوع ورودی داده: جدای از نگاه کردن به نمونههای مشابه مورد استفاده شما، راه دیگری برای کشف مدلهای مورد استفاده خود این است که نوع دادهای را که میخواهید پردازش کنید، مانند دادههای صوتی، نوشتاری، تصویری یا ویدیویی در نظر بگیرید. مدلهای یادگیری ماشین اغلب برای استفاده با یکی از این نوع دادهها طراحی میشوند، بنابراین جستجوی مدلهایی که نوع دادهای را که میخواهید استفاده کنید، میتواند به شما کمک کند مدلهایی را که باید در نظر بگیرید محدود کنید.
لینک های زیر به مدل های LiteRT در Kaggle Models برای موارد استفاده رایج لیست می کند:
اگر برنامه شما از یک مورد معمول مانند طبقه بندی تصویر یا تشخیص اشیا پیروی می کند، ممکن است بین چندین مدل TensorFlow Lite با اندازه باینری، اندازه ورودی داده، سرعت استنتاج و رتبه بندی دقت پیش بینی متفاوت تصمیم گیری کنید. هنگام تصمیم گیری بین تعدادی از مدل ها، ابتدا باید گزینه های خود را بر اساس محدودترین محدودیت خود محدود کنید: اندازه مدل، اندازه داده، سرعت استنتاج یا دقت.
اگر مطمئن نیستید محدودترین محدودیت شما چیست، فرض کنید اندازه مدل است و کوچکترین مدل موجود را انتخاب کنید. انتخاب یک مدل کوچک به شما بیشترین انعطاف را از نظر دستگاه هایی می دهد که می توانید با موفقیت مدل را استقرار و اجرا کنید. مدلهای کوچکتر نیز معمولاً استنباطهای سریعتری تولید میکنند و پیشبینیهای سریعتر معمولاً تجربیات کاربر نهایی بهتری ایجاد میکنند. مدلهای کوچکتر معمولاً نرخهای دقت پایینتری دارند، بنابراین اگر دقت پیشبینی دغدغه اصلی شما باشد، ممکن است لازم باشد مدلهای بزرگتری را انتخاب کنید.
منابع برای مدل ها
از بخش LiteRT Examples و Kaggle Models به عنوان اولین مقصد خود برای یافتن و انتخاب مدل هایی برای استفاده با TensorFlow Lite استفاده کنید. این منابع معمولاً دارای مدلهای بهروز و انتخابشده برای استفاده با LiteRT هستند و معمولاً کدهای نمونه را برای تسریع روند توسعه شما درج میکنند.
مدل های تنسورفلو
امکان تبدیل مدل های معمولی تنسورفلو به فرمت تنسورفلو لایت وجود دارد. برای اطلاعات بیشتر در مورد تبدیل مدل ها، به مستندات تبدیل TensorFlow Lite مراجعه کنید. میتوانید مدلهای تنسورفلو را در مدلهای Kaggle و در باغ مدل تنسورفلو پیدا کنید.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Pre-trained models for LiteRT\n\nThere are a variety of already trained, open source models you can use\nimmediately with LiteRT to accomplish many machine learning tasks.\nUsing pre-trained LiteRT models lets you add machine learning\nfunctionality to your mobile and edge device application quickly, without having\nto build and train a model. This guide helps you find and decide on trained\nmodels for use with LiteRT.\n\nYou can start browsing a large set of models on [Kaggle\nModels](https://www.kaggle.com/models?framework=tfLite).\n| **Important:** Kaggle Models lists both regular TensorFlow models and TensorFlow Lite format models. These model formats are not interchangeable. TensorFlow models can be converted into LiteRT models, but that process is not reversible.\n\nFind a model for your application\n---------------------------------\n\nFinding an existing LiteRT model for your use case can be tricky\ndepending on what you are trying to accomplish. Here are a few recommended ways\nto discover models for use with LiteRT:\n\n**By example:** The fastest way to find and start using models with TensorFlow\nLite is to browse the [LiteRT\nExamples](https://github.com/tensorflow/examples/tree/master/lite/examples)\nsection to find models that perform a task which is similar to your use case.\nThis short catalog of examples provides models for common use cases with\nexplanations of the models and sample code to get you started running and using\nthem.\n\n**By data input type:** Aside from looking at examples similar to your use case,\nanother way to discover models for your own use is to consider the type of data\nyou want to process, such as audio, text, images, or video data. Machine\nlearning models are frequently designed for use with one of these types of data,\nso looking for models that handle the data type you want to use can help you\nnarrow down what models to consider.\n| **Note:** Processing video with machine learning models can frequently be accomplished with models that are designed for processing single images, depending on how fast and how many inferences you need to perform for your use case. If you intend to use video for your use case, consider using single-frame video sampling with a model built for fast processing of individual images.\n\nThe following lists links to LiteRT models on [Kaggle\nModels](https://www.kaggle.com/models?framework=tfLite) for common use cases:\n\n- [Image classification](https://www.kaggle.com/models?framework=tfLite&task=16686) models\n- [Object detection](https://www.kaggle.com/models?query=image+object+detection&framework=tfLite) models\n- [Text classification](https://www.kaggle.com/models?framework=tfLite&task=16691) models\n- [Text embedding](https://www.kaggle.com/models?framework=tfLite&query=text-embedding) models\n- [Audio speech synthesis](https://www.kaggle.com/models?framework=tfLite&query=audio-speech-synthesis) models\n- [Audio embedding](https://www.kaggle.com/models?framework=tfLite&query=audio-embedding) models\n\nChoose between similar models\n-----------------------------\n\nIf your application follows a common use case such as image classification or\nobject detection, you may find yourself deciding between multiple TensorFlow\nLite models, with varying binary size, data input size, inference speed, and\nprediction accuracy ratings. When deciding between a number of models, you\nshould narrow your options based first on your most limiting constraint: size of\nmodel, size of data, inference speed, or accuracy.\n| **Key Point:** Generally, when choosing between similar models, pick the smallest model to allow for the broadest device compatibility and fast inference times.\n\nIf you are not sure what your most limiting constraint is, assume it is the size\nof the model and pick the smallest model available. Picking a small model gives\nyou the most flexibility in terms of the devices where you can successfully\ndeploy and run the model. Smaller models also typically produce faster\ninferences, and speedier predictions generally create better end-user\nexperiences. Smaller models typically have lower accuracy rates, so you may need\nto pick larger models if prediction accuracy is your primary concern.\n\nSources for models\n------------------\n\nUse the [LiteRT\nExamples](https://github.com/tensorflow/examples/tree/master/lite/examples)\nsection and [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) as\nyour first destinations for finding and selecting models for use with TensorFlow\nLite. These sources generally have up to date, curated models for use with\nLiteRT, and frequently include sample code to accelerate your\ndevelopment process.\n\n### TensorFlow models\n\nIt is possible to [convert](./convert) regular TensorFlow models to TensorFlow\nLite format. For more information about converting models, see the [TensorFlow\nLite Converter](./convert) documentation. You can find TensorFlow models on\n[Kaggle Models](https://www.kaggle.com/models) and in the [TensorFlow Model\nGarden](https://github.com/tensorflow/models)."]]