পাইথনের সাথে লিনাক্স-ভিত্তিক ডিভাইসের জন্য দ্রুত শুরু

পাইথনের সাথে LiteRT ব্যবহার করা লিনাক্সের উপর ভিত্তি করে এমবেড করা ডিভাইসগুলির জন্য দুর্দান্ত, যেমন রাস্পবেরি পাই এবং এজ টিপিইউ সহ কোরাল ডিভাইস , আরও অনেকের মধ্যে।

এই পৃষ্ঠাটি দেখায় কিভাবে আপনি মাত্র কয়েক মিনিটের মধ্যে পাইথনের সাথে LiteRT মডেল চালানো শুরু করতে পারেন। আপনার যা দরকার তা হল টেনসরফ্লো লাইটে রূপান্তরিত একটি টেনসরফ্লো মডেল৷ (যদি আপনার কাছে এখনও রূপান্তরিত মডেল না থাকে, তাহলে আপনি নীচে লিঙ্ক করা উদাহরণ সহ প্রদত্ত মডেলটি ব্যবহার করে পরীক্ষা করতে পারেন।)

LiteRT রানটাইম প্যাকেজ সম্পর্কে

Python এর সাথে LiteRT মডেলগুলি দ্রুত কার্যকর করা শুরু করতে, আপনি সমস্ত TensorFlow প্যাকেজের পরিবর্তে শুধুমাত্র LiteRT ইন্টারপ্রেটার ইনস্টল করতে পারেন। আমরা এই সরলীকৃত পাইথন প্যাকেজটিকে বলি tflite_runtime

tflite_runtime প্যাকেজটি সম্পূর্ণ tensorflow প্যাকেজের আকারের একটি ভগ্নাংশ এবং এতে LiteRT-এর সাথে প্রাথমিকভাবে Interpreter পাইথন ক্লাসের অনুমান চালানোর জন্য প্রয়োজনীয় ন্যূনতম কোডটি অন্তর্ভুক্ত রয়েছে। এই ছোট প্যাকেজটি আদর্শ যখন আপনি যা করতে চান তা হল .tflite মডেলগুলি চালানো এবং বড় TensorFlow লাইব্রেরির সাথে ডিস্কের স্থান নষ্ট করা এড়ানো৷

পাইথনের জন্য LiteRT ইনস্টল করুন

আপনি পিপ দিয়ে লিনাক্সে ইনস্টল করতে পারেন:

python3 -m pip install tflite-runtime

সমর্থিত প্ল্যাটফর্ম

tflite-runtime পাইথন চাকাগুলি এই প্ল্যাটফর্মগুলির জন্য পূর্ব-নির্মিত এবং সরবরাহ করা হয়েছে:

  • Linux armv7l (যেমন Raspberry Pi 2, 3, 4 এবং Zero 2 চলমান Raspberry Pi OS 32-bit)
  • Linux aarch64 (যেমন Raspberry Pi 3, 4 চলমান Debian ARM64)
  • লিনাক্স x86_64

আপনি যদি অন্যান্য প্ল্যাটফর্মে LiteRT মডেল চালাতে চান, তাহলে আপনার হয় সম্পূর্ণ TensorFlow প্যাকেজ ব্যবহার করা উচিত, অথবা উৎস থেকে tflite-রানটাইম প্যাকেজ তৈরি করা উচিত

আপনি যদি Coral Edge TPU-এর সাথে TensorFlow ব্যবহার করেন, তাহলে আপনার পরিবর্তে উপযুক্ত কোরাল সেটআপ ডকুমেন্টেশন অনুসরণ করা উচিত।

tflite_runtime ব্যবহার করে একটি অনুমান চালান

tensorflow মডিউল থেকে Interpreter আমদানি করার পরিবর্তে, আপনাকে এখন এটি tflite_runtime থেকে আমদানি করতে হবে।

উদাহরণস্বরূপ, আপনি উপরের প্যাকেজটি ইনস্টল করার পরে, label_image.py ফাইলটি অনুলিপি করুন এবং চালান। এটি (সম্ভবত) ব্যর্থ হবে কারণ আপনার কাছে tensorflow লাইব্রেরি ইনস্টল নেই। এটি ঠিক করতে, ফাইলের এই লাইনটি সম্পাদনা করুন:

import tensorflow as tf

তাই এটি পরিবর্তে পড়ে:

import tflite_runtime.interpreter as tflite

এবং তারপর এই লাইন পরিবর্তন করুন:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

তাই এটি পড়ে:

interpreter = tflite.Interpreter(model_path=args.model_file)

এখন আবার label_image.py চালান। তাই তো! আপনি এখন LiteRT মডেলগুলি সম্পাদন করছেন৷

আরও জানুন