পাইথনের সাথে LiteRT ব্যবহার করা লিনাক্সের উপর ভিত্তি করে এমবেড করা ডিভাইসগুলির জন্য দুর্দান্ত, যেমন রাস্পবেরি পাই এবং এজ টিপিইউ সহ কোরাল ডিভাইস , আরও অনেকের মধ্যে।
এই পৃষ্ঠাটি দেখায় কিভাবে আপনি মাত্র কয়েক মিনিটের মধ্যে পাইথনের সাথে LiteRT মডেল চালানো শুরু করতে পারেন। আপনার যা দরকার তা হল টেনসরফ্লো লাইটে রূপান্তরিত একটি টেনসরফ্লো মডেল৷ (যদি আপনার কাছে এখনও রূপান্তরিত মডেল না থাকে, তাহলে আপনি নীচে লিঙ্ক করা উদাহরণ সহ প্রদত্ত মডেলটি ব্যবহার করে পরীক্ষা করতে পারেন।)
LiteRT রানটাইম প্যাকেজ সম্পর্কে
Python এর সাথে LiteRT মডেলগুলি দ্রুত কার্যকর করা শুরু করতে, আপনি সমস্ত TensorFlow প্যাকেজের পরিবর্তে শুধুমাত্র LiteRT ইন্টারপ্রেটার ইনস্টল করতে পারেন। আমরা এই সরলীকৃত পাইথন প্যাকেজটিকে বলি tflite_runtime
।
tflite_runtime
প্যাকেজটি সম্পূর্ণ tensorflow
প্যাকেজের আকারের একটি ভগ্নাংশ এবং এতে LiteRT-এর সাথে প্রাথমিকভাবে Interpreter
পাইথন ক্লাসের অনুমান চালানোর জন্য প্রয়োজনীয় ন্যূনতম কোডটি অন্তর্ভুক্ত রয়েছে। এই ছোট প্যাকেজটি আদর্শ যখন আপনি যা করতে চান তা হল .tflite
মডেলগুলি চালানো এবং বড় TensorFlow লাইব্রেরির সাথে ডিস্কের স্থান নষ্ট করা এড়ানো৷
পাইথনের জন্য LiteRT ইনস্টল করুন
আপনি পিপ দিয়ে লিনাক্সে ইনস্টল করতে পারেন:
python3 -m pip install tflite-runtime
সমর্থিত প্ল্যাটফর্ম
tflite-runtime
পাইথন চাকাগুলি এই প্ল্যাটফর্মগুলির জন্য পূর্ব-নির্মিত এবং সরবরাহ করা হয়েছে:
- Linux armv7l (যেমন Raspberry Pi 2, 3, 4 এবং Zero 2 চলমান Raspberry Pi OS 32-bit)
- Linux aarch64 (যেমন Raspberry Pi 3, 4 চলমান Debian ARM64)
- লিনাক্স x86_64
আপনি যদি অন্যান্য প্ল্যাটফর্মে LiteRT মডেল চালাতে চান, তাহলে আপনার হয় সম্পূর্ণ TensorFlow প্যাকেজ ব্যবহার করা উচিত, অথবা উৎস থেকে tflite-রানটাইম প্যাকেজ তৈরি করা উচিত ।
আপনি যদি Coral Edge TPU-এর সাথে TensorFlow ব্যবহার করেন, তাহলে আপনার পরিবর্তে উপযুক্ত কোরাল সেটআপ ডকুমেন্টেশন অনুসরণ করা উচিত।
tflite_runtime ব্যবহার করে একটি অনুমান চালান
tensorflow
মডিউল থেকে Interpreter
আমদানি করার পরিবর্তে, আপনাকে এখন এটি tflite_runtime
থেকে আমদানি করতে হবে।
উদাহরণস্বরূপ, আপনি উপরের প্যাকেজটি ইনস্টল করার পরে, label_image.py
ফাইলটি অনুলিপি করুন এবং চালান। এটি (সম্ভবত) ব্যর্থ হবে কারণ আপনার কাছে tensorflow
লাইব্রেরি ইনস্টল নেই। এটি ঠিক করতে, ফাইলের এই লাইনটি সম্পাদনা করুন:
import tensorflow as tf
তাই এটি পরিবর্তে পড়ে:
import tflite_runtime.interpreter as tflite
এবং তারপর এই লাইন পরিবর্তন করুন:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
তাই এটি পড়ে:
interpreter = tflite.Interpreter(model_path=args.model_file)
এখন আবার label_image.py
চালান। তাই তো! আপনি এখন LiteRT মডেলগুলি সম্পাদন করছেন৷
আরও জানুন
Interpreter
এপিআই সম্পর্কে আরও বিস্তারিত জানার জন্য, পাইথনে একটি মডেল লোড করুন এবং চালান পড়ুন।আপনার যদি রাস্পবেরি পাই থাকে তবে কীভাবে LiteRT ব্যবহার করে রাস্পবেরি পাইতে অবজেক্ট ডিটেকশন চালানো যায় সে সম্পর্কে একটি ভিডিও সিরিজ দেখুন।
আপনি যদি একটি কোরাল এমএল অ্যাক্সিলারেটর ব্যবহার করেন, GitHub-এ প্রবাল উদাহরণগুলি দেখুন।
অন্যান্য TensorFlow মডেলগুলিকে LiteRT তে রূপান্তর করতে, LiteRT কনভার্টার সম্পর্কে পড়ুন।
আপনি যদি
tflite_runtime
হুইল তৈরি করতে চান, LiteRT পাইথন হুইল প্যাকেজ তৈরি করুন