این صفحه راهنمایی هایی را برای ساخت مدل های TensorFlow با هدف تبدیل به قالب مدل LiteRT ارائه می دهد. مدلهای یادگیری ماشین (ML) که با LiteRT استفاده میکنید در اصل با استفاده از کتابخانهها و ابزارهای هسته TensorFlow ساخته و آموزش داده شدهاند. هنگامی که یک مدل با هسته TensorFlow ساختید، می توانید آن را به یک قالب مدل ML کوچکتر و کارآمدتر به نام مدل LiteRT تبدیل کنید.
اگر قبلاً مدلی برای تبدیل دارید، برای راهنمایی در مورد تبدیل مدل خود به صفحه نمای کلی تبدیل مدلها مراجعه کنید.
ساختن مدل شما
اگر در حال ساخت یک مدل سفارشی برای مورد خاص خود هستید، باید با توسعه و آموزش یک مدل TensorFlow یا توسعه یک مدل موجود شروع کنید.
محدودیت های طراحی مدل
قبل از شروع فرآیند توسعه مدل خود، باید از محدودیت های مدل های LiteRT آگاه باشید و مدل خود را با در نظر گرفتن این محدودیت ها بسازید:
- قابلیتهای محاسباتی محدود - در مقایسه با سرورهای کاملاً مجهز با چندین CPU، ظرفیت حافظه بالا و پردازندههای تخصصی مانند GPU و TPU، دستگاههای موبایل و لبه بسیار محدودتر هستند. در حالی که آنها در قدرت محاسباتی و سازگاری سختافزار تخصصی رشد میکنند، مدلها و دادههایی که میتوانید به طور مؤثر با آنها پردازش کنید، هنوز به نسبت محدود هستند.
- اندازه مدل ها - پیچیدگی کلی یک مدل، از جمله منطق پیش پردازش داده ها و تعداد لایه های مدل، اندازه حافظه یک مدل را افزایش می دهد. یک مدل بزرگ ممکن است به طور غیرقابل قبولی کند کار کند یا به سادگی در حافظه موجود موبایل یا دستگاه لبه قرار نگیرد.
- اندازه داده - اندازه داده های ورودی که می تواند به طور موثر با یک مدل یادگیری ماشینی پردازش شود، در یک دستگاه تلفن همراه یا لبه محدود است. مدلهایی که از کتابخانههای بزرگ داده مانند کتابخانههای زبان، کتابخانههای تصویر یا کتابخانههای کلیپ ویدیویی استفاده میکنند ممکن است در این دستگاهها مناسب نباشند و ممکن است به راهحلهای ذخیرهسازی و دسترسی خارج از دستگاه نیاز داشته باشند.
- عملیات پشتیبانی شده TensorFlow - محیط های زمان اجرا LiteRT از زیر مجموعه ای از عملیات مدل یادگیری ماشین در مقایسه با مدل های معمولی TensorFlow پشتیبانی می کنند. همانطور که مدلی را برای استفاده با LiteRT توسعه می دهید، باید سازگاری مدل خود را با قابلیت های محیط های زمان اجرا LiteRT دنبال کنید.
برای اطلاعات بیشتر ساخت مدلهای موثر، سازگار و با کارایی بالا برای LiteRT، به بهترین شیوههای عملکرد مراجعه کنید.
توسعه مدل
برای ساخت یک مدل LiteRT، ابتدا باید یک مدل با استفاده از کتابخانه های هسته TensorFlow بسازید. کتابخانههای هسته TensorFlow کتابخانههای سطح پایینتری هستند که APIهایی را برای ساخت، آموزش و استقرار مدلهای ML ارائه میکنند.
TensorFlow دو مسیر برای انجام این کار فراهم می کند. میتوانید کد مدل سفارشی خود را توسعه دهید یا میتوانید با پیادهسازی مدل موجود در باغ مدل TensorFlow شروع کنید.
باغ مدل
TensorFlow Model Garden پیاده سازی بسیاری از مدل های پیشرفته یادگیری ماشینی (ML) را برای پردازش بینایی و زبان طبیعی (NLP) ارائه می دهد. همچنین ابزارهای گردش کار را پیدا خواهید کرد که به شما امکان می دهد آن مدل ها را به سرعت روی مجموعه داده های استاندارد پیکربندی و اجرا کنید. مدلهای یادگیری ماشینی در باغ مدل شامل کد کامل هستند، بنابراین میتوانید با استفاده از مجموعه دادههای خود آنها را آزمایش کنید، آموزش دهید یا دوباره آموزش دهید.
خواه به دنبال معیاری برای عملکرد یک مدل شناخته شده باشید، نتایج تحقیقات اخیراً منتشر شده را تأیید کنید یا مدلهای موجود را گسترش دهید، باغ مدل میتواند به شما در پیشبرد اهداف ML خود کمک کند.
مدل های سفارشی
اگر مورد استفاده شما خارج از مواردی است که مدلها در مدل گاردن پشتیبانی میکنند، میتوانید از یک کتابخانه سطح بالا مانند Keras برای توسعه کد آموزشی سفارشی خود استفاده کنید. برای یادگیری اصول TensorFlow، راهنمای TensorFlow را ببینید. برای شروع با مثالها، مرور کلی آموزشهای TensorFlow را ببینید که حاوی اشارههایی به آموزشهای سطح شروع تا متخصص است.
ارزیابی مدل
هنگامی که مدل خود را توسعه دادید، باید عملکرد آن را ارزیابی کرده و آن را روی دستگاه های کاربر نهایی آزمایش کنید. TensorFlow چند راه برای انجام این کار ارائه می دهد.
- TensorBoard ابزاری برای ارائه اندازهگیریها و تجسمهای مورد نیاز در جریان کار یادگیری ماشین است. ردیابی معیارهای آزمایش مانند از دست دادن و دقت، تجسم نمودار مدل، پیشبینی جاسازیها در فضای با ابعاد پایینتر و موارد دیگر را امکانپذیر میکند.
- ابزارهای بنچمارک برای هر پلتفرم پشتیبانی شده مانند برنامه معیار اندروید و برنامه معیار iOS در دسترس هستند. از این ابزارها برای اندازه گیری و محاسبه آمار برای معیارهای مهم عملکرد استفاده کنید.
بهینه سازی مدل
با محدودیتهای موجود در منابع خاص مدلهای TensorFlow Lite، بهینهسازی مدل میتواند به اطمینان از عملکرد مدل شما کمک کند و از منابع محاسباتی کمتری استفاده کند. عملکرد مدل یادگیری ماشین معمولاً تعادلی بین اندازه و سرعت استنتاج در مقابل دقت است. LiteRT در حال حاضر از بهینه سازی از طریق کوانتیزاسیون، هرس و خوشه بندی پشتیبانی می کند. برای جزئیات بیشتر در مورد این تکنیک ها، مبحث بهینه سازی مدل را ببینید. TensorFlow همچنین یک جعبه ابزار بهینه سازی مدل ارائه می دهد که یک API را ارائه می دهد که این تکنیک ها را پیاده سازی می کند.
مراحل بعدی
- برای شروع ساخت مدل سفارشی خود، آموزش شروع سریع برای مبتدیان را در اسناد اصلی TensorFlow ببینید.
- برای تبدیل مدل TensorFlow سفارشی خود، به نمای کلی تبدیل مدلها مراجعه کنید.
- برای تعیین اینکه آیا مدل شما با LiteRT سازگار است یا باید اقدامات بیشتری برای سازگار کردن آن انجام دهید، به راهنمای سازگاری اپراتور مراجعه کنید.
- برای راهنمایی در مورد کارآمد کردن و کارآمد کردن مدلهای LiteRT خود ، راهنمای بهترین عملکرد را ببینید.
- برای یادگیری نحوه اندازه گیری عملکرد مدل خود با استفاده از ابزارهای معیار ، راهنمای معیارهای عملکرد را ببینید.