TensorFlow लाइट

TensorFlow Lite, टूल का एक सेट है. यह डेवलपर को डिवाइस पर मशीन लर्निंग की सुविधा देता है, ताकि वे मोबाइल, एम्बेड किए गए, और किनारे वाले डिवाइसों पर अपने मॉडल चला सकें.

मुख्य सुविधाएं

  • डिवाइस पर मशीन लर्निंग के लिए ऑप्टिमाइज़ किया गया, ये पांच मुख्य समस्याएं हैं: इंतज़ार का समय (सर्वर से कोई राउंड ट्रिप नहीं होती), निजता (निजी डेटा का इस्तेमाल नहीं होता), कनेक्टिविटी (इंटरनेट कनेक्टिविटी की ज़रूरत नहीं है), साइज़ (कम किया गया मॉडल और बाइनरी साइज़), और बिजली की खपत (बेहतर अनुमान और इंटरनेट कनेक्शन की कमी).
  • एक से ज़्यादा प्लैटफ़ॉर्म पर काम करता है. इसमें Android और iOS डिवाइस, एम्बेड किए गए Linux, और माइक्रोकंट्रोलर शामिल हैं.
  • अलग-अलग भाषाओं में काम करने की सुविधा, जिसमें Java, Swift, Objective-C, C++, और Python शामिल हैं.
  • बेहतर परफ़ॉर्मेंस, जिसमें हार्डवेयर से तेज़ी लाने और मॉडल ऑप्टिमाइज़ेशन की सुविधा.

डेवलपमेंट वर्कफ़्लो

नीचे दी गई गाइड में वर्कफ़्लो के हर चरण के बारे में जानकारी दी गई है. साथ ही, आगे के निर्देशों के लिए लिंक भी दिए गए हैं:

1. TensorFlow Lite का मॉडल जनरेट करें

TensorFlow Lite मॉडल को एक खास पोर्टेबल फ़ॉर्मैट में दिखाया जाता है जिसे FlatBuffers कहा जाता है. (इसे .tflite फ़ाइल एक्सटेंशन की मदद से पहचाना जाता है). इससे TensorFlow के प्रोटोकॉल बफ़र मॉडल फ़ॉर्मैट के मुकाबले कई फ़ायदे मिलते हैं. जैसे, कम साइज़ (छोटा कोड फ़ुटप्रिंट) और ज़्यादा तेज़ अनुमान (बिना किसी अतिरिक्त पार्सिंग या अनपैकिंग चरण के डेटा को सीधे ऐक्सेस किया जाता है). इसकी मदद से TensorFlow Lite, सीमित कंप्यूट और मेमोरी रिसॉर्स वाले डिवाइसों पर बेहतर तरीके से काम कर पाता है.

TensorFlow Lite मॉडल में मेटाडेटा शामिल किया जा सकता है. इसमें मॉडल की जानकारी और मशीन से पढ़ा जा सकने वाला डेटा मौजूद होता है, ताकि उपयोगकर्ता के डिवाइस पर अनुमान के दौरान, प्री- और पोस्ट-प्रोसेसिंग पाइपलाइन को अपने-आप जनरेट किया जा सके. ज़्यादा जानकारी के लिए, मेटाडेटा जोड़ना पर जाएं.

TensorFlow Lite के मॉडल को इन तरीकों से जनरेट किया जा सकता है:

  • मौजूदा TensorFlow Lite मॉडल का इस्तेमाल करना: किसी मौजूदा मॉडल को चुनने के लिए, TensorFlow Lite के उदाहरण देखें. मॉडल में मेटाडेटा हो भी सकता है और नहीं भी.

  • TensorFlow मॉडल को TensorFlow Lite मॉडल में बदलें: TensorFlow Lite Converter का इस्तेमाल करके TensorFlow मॉडल को TensorFlow Lite मॉडल में बदलें. कन्वर्ज़न के दौरान, मॉडल के साइज़ और इंतज़ार के समय को कम करने के लिए, क्वांटाइज़ेशन जैसे ऑप्टिमाइज़ेशन लागू किए जा सकते हैं. ऐसा करने से, मॉडल के सटीक होने में कम या कोई कमी नहीं आती. डिफ़ॉल्ट रूप से, सभी मॉडल में मेटाडेटा नहीं होता है.

2. अनुमान चलाएं

अनुमान का मतलब है, इनपुट डेटा के आधार पर अनुमान लगाने के लिए, डिवाइस पर TensorFlow Lite के मॉडल को लागू करने की प्रोसेस. मॉडल टाइप के आधार पर, इन तरीकों से अनुमान चलाया जा सकता है:

  • मेटाडेटा के बिना वाले मॉडल: TensorFlow Lite अनुवादक एपीआई का इस्तेमाल करें. यह Java, Swift, C++, Objective-C और Python जैसे कई प्लैटफ़ॉर्म और भाषाओं पर काम करता है.

  • मेटाडेटा वाले मॉडल: TensorFlow Lite सपोर्ट लाइब्रेरी की मदद से, कस्टम अनुमान पाइपलाइन बनाई जा सकती हैं. Android डिवाइसों पर, उपयोगकर्ता Android Studio ML मॉडल बाइंडिंग या TensorFlow Lite कोड जनरेटर का इस्तेमाल करके अपने-आप कोड रैपर जनरेट कर सकते हैं. यह सुविधा सिर्फ़ Java (Android) पर काम करती है, जबकि Swift (iOS) और C++ पर काम चल रहा है.

Android और iOS डिवाइसों पर, हार्डवेयर की मदद से परफ़ॉर्मेंस बढ़ाने की सुविधा का इस्तेमाल करके परफ़ॉर्मेंस को बेहतर बनाया जा सकता है. दोनों में से किसी भी प्लैटफ़ॉर्म पर, जीपीयू डेलिगेट का इस्तेमाल किया जा सकता है. साथ ही, iOS पर, कोर एमएल डेलीगेट का इस्तेमाल किया जा सकता है. नए हार्डवेयर ऐक्सेलरेटर के लिए सहायता जोड़ने के लिए, खुद का ऐक्सेस दिया जा सकता है.

शुरू करें

अपने टारगेट किए गए डिवाइस के आधार पर, नीचे दी गई गाइड देखें:

तकनीकी सीमाएं