TensorFlow Lite مجموعه ای از ابزارها است که با کمک به توسعه دهندگان برای اجرای مدل های خود بر روی دستگاه های تلفن همراه، جاسازی شده و لبه، یادگیری ماشین روی دستگاه را فعال می کند.
ویژگی های کلیدی
- بهینهسازی شده برای یادگیری ماشین روی دستگاه ، با پرداختن به 5 محدودیت کلیدی: تأخیر (مدل رفت و برگشت به سرور وجود ندارد)، حریم خصوصی (هیچ اطلاعات شخصی از دستگاه خارج نمیشود)، اتصال (اتصال به اینترنت لازم نیست)، اندازه (مدل کاهشیافته و اندازه باینری) و مصرف انرژی (استنتاج کارآمد و عدم اتصال به شبکه).
- پشتیبانی از پلتفرم های متعدد ، پوشش دستگاه های اندروید و iOS ، لینوکس جاسازی شده و میکروکنترلرها .
- پشتیبانی از زبان های متنوع ، که شامل جاوا، سوئیفت، Objective-C، C++ و Python می شود.
- عملکرد بالا ، با شتاب سخت افزاری و بهینه سازی مدل.
گردش کار توسعه
راهنمای زیر هر مرحله از گردش کار را طی می کند و پیوندهایی به دستورالعمل های بیشتر ارائه می دهد:
1. یک مدل TensorFlow Lite ایجاد کنید
یک مدل TensorFlow Lite در یک قالب قابل حمل کارآمد خاص به نام FlatBuffers نشان داده شده است (که با پسوند فایل tflite. شناسایی می شود). این مزیتهای متعددی را نسبت به فرمت مدل بافر پروتکل TensorFlow از جمله اندازه کاهش یافته (جایگاه کد کوچک) و استنتاج سریعتر (دسترسی مستقیم به دادهها بدون مرحله تجزیه/بازگشایی اضافی) ارائه میکند که TensorFlow Lite را قادر میسازد تا به طور مؤثر در دستگاههایی با منابع محاسباتی و حافظه محدود اجرا شود. .
یک مدل TensorFlow Lite میتواند به صورت اختیاری شامل ابردادههایی باشد که دارای توضیحات مدل قابل خواندن توسط انسان و دادههای قابل خواندن توسط ماشین برای تولید خودکار خطوط لوله پیش و پس از پردازش در طول استنتاج روی دستگاه باشد. برای جزئیات بیشتر به افزودن متادیتا مراجعه کنید.
شما می توانید یک مدل TensorFlow Lite را به روش های زیر ایجاد کنید:
از یک مدل TensorFlow Lite موجود استفاده کنید: برای انتخاب مدل موجود به مثالهای TensorFlow Lite مراجعه کنید. مدل ها ممکن است حاوی ابرداده باشند یا نباشند.
تبدیل یک مدل TensorFlow به یک مدل TensorFlow Lite: از مبدل TensorFlow Lite برای تبدیل یک مدل TensorFlow به یک مدل TensorFlow Lite استفاده کنید. در طول تبدیل، میتوانید بهینهسازیهایی مانند کوانتیزاسیون را برای کاهش اندازه و تأخیر مدل با حداقل یا بدون افت دقت اعمال کنید. بهطور پیشفرض، همه مدلها حاوی ابرداده نیستند.
2. استنتاج را اجرا کنید
استنتاج به فرآیند اجرای یک مدل TensorFlow Lite بر روی دستگاه برای پیشبینی بر اساس دادههای ورودی اشاره دارد. بر اساس نوع مدل می توانید استنتاج را به روش های زیر اجرا کنید:
مدلهای بدون ابرداده : از TensorFlow Lite Interpreter API استفاده کنید. پشتیبانی از چندین پلتفرم و زبان مانند جاوا، سوئیفت، C++، Objective-C و Python.
مدلهای دارای ابرداده : میتوانید خطوط لوله استنتاج سفارشی را با کتابخانه پشتیبانی TensorFlow Lite ایجاد کنید. در دستگاههای اندرویدی، کاربران میتوانند با استفاده از Android Studio ML Model Binding یا TensorFlow Lite Code Generator بهطور خودکار بستهبندی کد تولید کنند. فقط در جاوا (اندروید) پشتیبانی می شود در حالی که Swift (iOS) و C++ در حال انجام است.
در دستگاههای Android و iOS، میتوانید عملکرد را با استفاده از شتاب سختافزاری بهبود بخشید. در هر یک از پلتفرمها میتوانید از یک GPU Delegate و در iOS میتوانید از Core ML Delegate استفاده کنید. برای افزودن پشتیبانی از شتاب دهنده های سخت افزاری جدید، می توانید نماینده خود را تعریف کنید .
شروع کنید
می توانید بر اساس دستگاه مورد نظر خود به راهنماهای زیر مراجعه کنید:
Android و iOS: شروع سریع اندروید و شروع سریع iOS را کاوش کنید.
لینوکس جاسازی شده: شروع سریع پایتون را برای دستگاههای جاسازی شده مانند دستگاههای Raspberry Pi و Coral با Edge TPU یا دستورالعملهای ساخت C++ برای ARM کاوش کنید.
میکروکنترلرها: کتابخانه TensorFlow Lite for Microcontrollers را برای میکروکنترلرها و DSPهایی که تنها حاوی چند کیلوبایت حافظه هستند کاوش کنید.
محدودیت های فنی
- همه مدل های TensorFlow را نمی توان به مدل های TensorFlow Lite تبدیل کرد ، به سازگاری اپراتور مراجعه کنید.