Linux पर आधारित डिवाइसों के लिए, Python की मदद से क्विकस्टार्ट

Python के साथ, TensorFlow Lite का इस्तेमाल करना, Linux पर आधारित डिवाइसों के लिए बहुत अच्छा होता है. जैसे, Raspबेरी Pi और Edge TPU वाले कोरल डिवाइस. इनमें से कई दूसरे डिवाइस भी शामिल हैं.

इस पेज पर बताया गया है कि कैसे सिर्फ़ कुछ ही मिनटों में, Python की मदद से TensorFlow Lite मॉडल चलाना शुरू किया जा सकता है. इसके लिए, आपके पास सिर्फ़ एक TensorFlow मॉडल होना चाहिए, जिसे TensorFlow Lite में बदला गया हो. (अगर आपने अब तक कोई मॉडल बदला नहीं है, तो नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का इस्तेमाल करके प्रयोग करें.)

TensorFlow Lite रनटाइम पैकेज के बारे में जानकारी

Python की मदद से, TensorFlow Lite के मॉडल तुरंत लागू करने के लिए, सभी TensorFlow Lite पैकेज के बजाय, सिर्फ़ TensorFlow Lite अनुवादक इंस्टॉल किया जा सकता है. हम इस आसान Python पैकेज को tflite_runtime कहते हैं.

tflite_runtime पैकेज, पूरे tensorflow पैकेज का साइज़ से थोड़ा कम होता है. इसमें TensorFlow Lite की मदद से, अनुमान लगाने के लिए कम से कम ज़रूरी कोड शामिल होता है. खास तौर पर, Interpreter Python क्लास. यह छोटा पैकेज तब इस्तेमाल करना चाहिए, जब आपको सिर्फ़ .tflite मॉडल एक्ज़ीक्यूट करने हों. साथ ही, बड़ी TensorFlow लाइब्रेरी का इस्तेमाल करने से, डिस्क के स्टोरेज को बर्बाद होने से बचाया जा सके.

Python के लिए TensorFlow Lite इंस्टॉल करें

पीआईपी (पिक्चर में पिक्चर) की मदद से, Linux पर इंस्टॉल किया जा सकता है:

python3 -m pip install tflite-runtime

इन प्लैटफ़ॉर्म पर चलाया जा सकता है

tflite-runtime Python व्हील पहले से बनाए गए हैं और इन प्लैटफ़ॉर्म के लिए उपलब्ध कराए गए हैं:

  • Linux Armv7l (उदाहरण के लिए, Rasp बराबर Pi 2, 3, 4, और ज़ीरो 2 पर Raspबेरी Pi OS 32-बिट)
  • Linux aach64 (उदाहरण के लिए, Raspबेरी Pi 3, 4 रनिंग Debian ARM64)
  • Linux x86_64

अगर आपको अन्य प्लैटफ़ॉर्म पर TensorFlow Lite के मॉडल चलाना है, तो आपको पूरे TensorFlow पैकेज का इस्तेमाल करना चाहिए या सोर्स से tflite-runtime पैकेज बनाना चाहिए.

अगर कोरल एज TPU के साथ TensorFlow का इस्तेमाल किया जा रहा है, तो आपको सही कोरल सेटअप दस्तावेज़ का पालन करना चाहिए.

tflite_runtime का इस्तेमाल करके, अनुमान चलाएं

tensorflow मॉड्यूल से Interpreter को इंपोर्ट करने के बजाय, अब आपको इसे tflite_runtime से इंपोर्ट करना होगा.

उदाहरण के लिए, ऊपर दिए गए पैकेज को इंस्टॉल करने के बाद, label_image.py फ़ाइल को कॉपी करें और चलाएं. यह (शायद) इसलिए काम नहीं करेगा, क्योंकि आपने tensorflow लाइब्रेरी इंस्टॉल नहीं की है. इसे ठीक करने के लिए, फ़ाइल की इस लाइन में बदलाव करें:

import tensorflow as tf

इसलिए, इसमें यह लिखा होगा:

import tflite_runtime.interpreter as tflite

और फिर इस लाइन को बदलें:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

इसलिए, इसमें यह लिखा होगा:

interpreter = tflite.Interpreter(model_path=args.model_file)

अब label_image.py को फिर से चलाएं. हो गया! अब TensorFlow Lite मॉडल लागू किए जा रहे हैं.

ज़्यादा जानें