Linux पर आधारित डिवाइसों के लिए, Python की मदद से क्विकस्टार्ट

Linux पर आधारित एम्बेड किए गए डिवाइसों के लिए, Python के साथ LiteRT का इस्तेमाल करना सबसे सही है. जैसे कि Raspberry Pi और Edge TPU वाले कोरल डिवाइस, और कई अन्य चीज़ें हैं.

इस पेज में, Python के साथ LiteRT मॉडल को चलाने का तरीका बताया गया है बस कुछ मिनट. आपको बस TensorFlow में बदला गया TensorFlow मॉडल चाहिए Lite. (अगर आपने अभी तक कोई मॉडल बदला नहीं है, तो नीचे दिए गए उदाहरण की मदद से दिए गए मॉडल का इस्तेमाल करके प्रयोग करें.)

LiteRT रनटाइम पैकेज के बारे में जानकारी

Python की मदद से LiteRT मॉडल को फटाफट एक्ज़ीक्यूट करने के लिए, इसे इंस्टॉल करें TensorFlow के सभी पैकेज देखने की जगह, सिर्फ़ LiteRT इंटरप्रेटर का इस्तेमाल करना चाहिए. बुध इस आसान Python पैकेज tflite_runtime को कॉल करें.

tflite_runtime पैकेज, पूरे tensorflow के साइज़ का कुछ हिस्सा है पैकेज शामिल है और इसमें वह छोटा सा कोड शामिल है जो अनुमान लगाने के लिए ज़रूरी है LiteRT—मुख्य तौर पर Interpreter Python क्लास. यह छोटा पैकेज तब काम आता है, जब आपको बस अपना काम पूरा करना हो .tflite मॉडल इस्तेमाल करें और TensorFlow की बड़ी लाइब्रेरी की मदद से, डिस्क स्टोरेज को बर्बाद होने से बचाएं.

Python के लिए LiteRT इंस्टॉल करें

पीआईपी की मदद से, Linux पर इंस्टॉल किया जा सकता है:

python3 -m pip install tflite-runtime

डेटा डालने और 360 डिग्री में, वीडियो चलाने की सुविधा देने वाले प्लैटफ़ॉर्म

tflite-runtime Python व्हील पहले से बनाए गए हैं और इन व्हील्स के लिए उपलब्ध कराए गए हैं प्लेटफ़ॉर्म:

  • Linux Armv7l (उदा. Raspberry Pi 2, 3, 4 और ज़ीरो 2 चलाने वाला Raspberry Pi OS 32-बिट)
  • Linux a Arc64 (जैसे, Raspberry Pi 3, 4 Debian ARM64 पर चलने वाला)
  • Linux x86_64

अगर आपको अन्य प्लैटफ़ॉर्म पर LiteRT मॉडल चलाने हैं, तो आपको इनमें से कोई एक तरीका अपनाना चाहिए TensorFlow का पूरा पैकेज इस्तेमाल करें या सोर्स से tflite-रनटाइम पैकेज बनाएं.

अगर कोरल एज टीपीयू के साथ TensorFlow का इस्तेमाल किया जा रहा है, तो आपको इसके बजाय, कोरल सेटअप से जुड़े दस्तावेज़ देखें.

tflite_runtime का इस्तेमाल करके अनुमान लगाना

tensorflow मॉड्यूल से Interpreter को इंपोर्ट करने के बजाय, अब आपको यह करना होगा इसे tflite_runtime से इंपोर्ट करें.

उदाहरण के लिए, ऊपर दिया गया पैकेज इंस्टॉल करने के बाद, label_image.py फ़ाइल से लिए जाते हैं. शायद यह फ़ाइल काम न करे, क्योंकि आपके पास tensorflow लाइब्रेरी नहीं है इंस्टॉल किया गया. इसे ठीक करने के लिए, फ़ाइल की इस लाइन में बदलाव करें:

import tensorflow as tf

इसलिए, यह इस तरह लिखा है:

import tflite_runtime.interpreter as tflite

और फिर इस लाइन को बदलें:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

तो इसमें लिखा है:

interpreter = tflite.Interpreter(model_path=args.model_file)

अब label_image.py को फिर से चलाएं. हो गया! अब LiteRT को एक्ज़ीक्यूट किया जा रहा है मॉडल.

ज़्यादा जानें