Linux पर आधारित एम्बेड किए गए डिवाइसों के लिए, Python के साथ LiteRT का इस्तेमाल करना सबसे सही है. जैसे कि Raspberry Pi और Edge TPU वाले कोरल डिवाइस, और कई अन्य चीज़ें हैं.
इस पेज में, Python के साथ LiteRT मॉडल को चलाने का तरीका बताया गया है बस कुछ मिनट. आपको बस TensorFlow में बदला गया TensorFlow मॉडल चाहिए Lite. (अगर आपने अभी तक कोई मॉडल बदला नहीं है, तो नीचे दिए गए उदाहरण की मदद से दिए गए मॉडल का इस्तेमाल करके प्रयोग करें.)
LiteRT रनटाइम पैकेज के बारे में जानकारी
Python की मदद से LiteRT मॉडल को फटाफट एक्ज़ीक्यूट करने के लिए, इसे इंस्टॉल करें
TensorFlow के सभी पैकेज देखने की जगह, सिर्फ़ LiteRT इंटरप्रेटर का इस्तेमाल करना चाहिए. बुध
इस आसान Python पैकेज tflite_runtime
को कॉल करें.
tflite_runtime
पैकेज, पूरे tensorflow
के साइज़ का कुछ हिस्सा है
पैकेज शामिल है और इसमें वह छोटा सा कोड शामिल है जो अनुमान लगाने के लिए ज़रूरी है
LiteRT—मुख्य तौर पर
Interpreter
Python क्लास. यह छोटा पैकेज तब काम आता है, जब आपको बस अपना काम पूरा करना हो
.tflite
मॉडल इस्तेमाल करें और TensorFlow की बड़ी लाइब्रेरी की मदद से, डिस्क स्टोरेज को बर्बाद होने से बचाएं.
Python के लिए LiteRT इंस्टॉल करें
पीआईपी की मदद से, Linux पर इंस्टॉल किया जा सकता है:
python3 -m pip install tflite-runtime
डेटा डालने और 360 डिग्री में, वीडियो चलाने की सुविधा देने वाले प्लैटफ़ॉर्म
tflite-runtime
Python व्हील पहले से बनाए गए हैं और इन व्हील्स के लिए उपलब्ध कराए गए हैं
प्लेटफ़ॉर्म:
- Linux Armv7l (उदा. Raspberry Pi 2, 3, 4 और ज़ीरो 2 चलाने वाला Raspberry Pi OS 32-बिट)
- Linux a Arc64 (जैसे, Raspberry Pi 3, 4 Debian ARM64 पर चलने वाला)
- Linux x86_64
अगर आपको अन्य प्लैटफ़ॉर्म पर LiteRT मॉडल चलाने हैं, तो आपको इनमें से कोई एक तरीका अपनाना चाहिए TensorFlow का पूरा पैकेज इस्तेमाल करें या सोर्स से tflite-रनटाइम पैकेज बनाएं.
अगर कोरल एज टीपीयू के साथ TensorFlow का इस्तेमाल किया जा रहा है, तो आपको इसके बजाय, कोरल सेटअप से जुड़े दस्तावेज़ देखें.
tflite_runtime का इस्तेमाल करके अनुमान लगाना
tensorflow
मॉड्यूल से Interpreter
को इंपोर्ट करने के बजाय, अब आपको यह करना होगा
इसे tflite_runtime
से इंपोर्ट करें.
उदाहरण के लिए, ऊपर दिया गया पैकेज इंस्टॉल करने के बाद,
label_image.py
फ़ाइल से लिए जाते हैं. शायद यह फ़ाइल काम न करे, क्योंकि आपके पास tensorflow
लाइब्रेरी नहीं है
इंस्टॉल किया गया. इसे ठीक करने के लिए, फ़ाइल की इस लाइन में बदलाव करें:
import tensorflow as tf
इसलिए, यह इस तरह लिखा है:
import tflite_runtime.interpreter as tflite
और फिर इस लाइन को बदलें:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
तो इसमें लिखा है:
interpreter = tflite.Interpreter(model_path=args.model_file)
अब label_image.py
को फिर से चलाएं. हो गया! अब LiteRT को एक्ज़ीक्यूट किया जा रहा है
मॉडल.
ज़्यादा जानें
Interpreter
API के बारे में ज़्यादा जानकारी के लिए, इसे पढ़ें Python में कोई मॉडल लोड करें और चलाएं.अगर आपके पास Raspberry Pi है, तो वीडियो सीरीज़ देखें LiteRT का इस्तेमाल करके, Raspberry Pi पर ऑब्जेक्ट पहचानने की सुविधा चलाने के बारे में जानकारी.
अगर कोरल एमएल ऐक्सेलरेटर का इस्तेमाल किया जा रहा है, तो GitHub पर कोरल के उदाहरण.
अन्य TensorFlow मॉडल को LiteRT में बदलने के लिए, LiteRT कन्वर्टर.
अगर आपको
tflite_runtime
व्हील बनाना है, तो इसे पढ़ें LiteRT Python व्हील पैकेज बनाएं