Python के साथ, TensorFlow Lite का इस्तेमाल करना, Linux पर आधारित डिवाइसों के लिए बहुत अच्छा होता है. जैसे, Raspबेरी Pi और Edge TPU वाले कोरल डिवाइस. इनमें से कई दूसरे डिवाइस भी शामिल हैं.
इस पेज पर बताया गया है कि कैसे सिर्फ़ कुछ ही मिनटों में, Python की मदद से TensorFlow Lite मॉडल चलाना शुरू किया जा सकता है. इसके लिए, आपके पास सिर्फ़ एक TensorFlow मॉडल होना चाहिए, जिसे TensorFlow Lite में बदला गया हो. (अगर आपने अब तक कोई मॉडल बदला नहीं है, तो नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का इस्तेमाल करके प्रयोग करें.)
TensorFlow Lite रनटाइम पैकेज के बारे में जानकारी
Python की मदद से, TensorFlow Lite के मॉडल तुरंत लागू करने के लिए, सभी TensorFlow Lite पैकेज के बजाय,
सिर्फ़ TensorFlow Lite अनुवादक इंस्टॉल किया जा सकता है. हम
इस आसान Python पैकेज को tflite_runtime
कहते हैं.
tflite_runtime
पैकेज, पूरे tensorflow
पैकेज का साइज़ से थोड़ा कम होता है. इसमें TensorFlow Lite की मदद से, अनुमान लगाने के लिए कम से कम ज़रूरी कोड शामिल होता है. खास तौर पर, Interpreter
Python क्लास. यह छोटा पैकेज तब इस्तेमाल करना चाहिए, जब आपको सिर्फ़ .tflite
मॉडल एक्ज़ीक्यूट करने हों. साथ ही, बड़ी TensorFlow लाइब्रेरी का इस्तेमाल करने से, डिस्क के स्टोरेज को बर्बाद होने से बचाया जा सके.
Python के लिए TensorFlow Lite इंस्टॉल करें
पीआईपी (पिक्चर में पिक्चर) की मदद से, Linux पर इंस्टॉल किया जा सकता है:
python3 -m pip install tflite-runtime
इन प्लैटफ़ॉर्म पर चलाया जा सकता है
tflite-runtime
Python व्हील पहले से बनाए गए हैं और इन प्लैटफ़ॉर्म के लिए उपलब्ध कराए गए हैं:
- Linux Armv7l (उदाहरण के लिए, Rasp बराबर Pi 2, 3, 4, और ज़ीरो 2 पर Raspबेरी Pi OS 32-बिट)
- Linux aach64 (उदाहरण के लिए, Raspबेरी Pi 3, 4 रनिंग Debian ARM64)
- Linux x86_64
अगर आपको अन्य प्लैटफ़ॉर्म पर TensorFlow Lite के मॉडल चलाना है, तो आपको पूरे TensorFlow पैकेज का इस्तेमाल करना चाहिए या सोर्स से tflite-runtime पैकेज बनाना चाहिए.
अगर कोरल एज TPU के साथ TensorFlow का इस्तेमाल किया जा रहा है, तो आपको सही कोरल सेटअप दस्तावेज़ का पालन करना चाहिए.
tflite_runtime का इस्तेमाल करके, अनुमान चलाएं
tensorflow
मॉड्यूल से Interpreter
को इंपोर्ट करने के बजाय, अब आपको इसे tflite_runtime
से इंपोर्ट करना होगा.
उदाहरण के लिए, ऊपर दिए गए पैकेज को इंस्टॉल करने के बाद, label_image.py
फ़ाइल को कॉपी करें और चलाएं. यह (शायद) इसलिए काम नहीं करेगा, क्योंकि आपने tensorflow
लाइब्रेरी इंस्टॉल नहीं की है. इसे ठीक करने के लिए, फ़ाइल की इस लाइन में बदलाव करें:
import tensorflow as tf
इसलिए, इसमें यह लिखा होगा:
import tflite_runtime.interpreter as tflite
और फिर इस लाइन को बदलें:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
इसलिए, इसमें यह लिखा होगा:
interpreter = tflite.Interpreter(model_path=args.model_file)
अब label_image.py
को फिर से चलाएं. हो गया! अब TensorFlow Lite
मॉडल लागू किए जा रहे हैं.
ज़्यादा जानें
Interpreter
API के बारे में ज़्यादा जानकारी के लिए, Python में मॉडल लोड करना और चलाना पढ़ें.अगर आपके पास Raspबेरी Pi है, तो TensorFlow Lite का इस्तेमाल करके Raspबेरी Pi पर ऑब्जेक्ट का पता लगाने का तरीका जानने के लिए वीडियो सीरीज़ देखें.
अगर कोरल एमएल ऐक्सेलरेटर का इस्तेमाल किया जा रहा है, तो GitHub पर कोरल के उदाहरण देखें.
किसी अन्य TensorFlow मॉडल को TensorFlow Lite में बदलने के लिए, TensorFlow Lite Converter के बारे में पढ़ें.
अगर आपको
tflite_runtime
व्हील बनाना है, तो TensorFlow Lite का Python व्हील पैकेज बनाएं