LiteRT के साथ, पहले से ट्रेन किए गए कई ओपन सोर्स मॉडल का तुरंत इस्तेमाल किया जा सकता है. इससे मशीन लर्निंग के कई टास्क पूरे किए जा सकते हैं. पहले से ट्रेन किए गए LiteRT मॉडल का इस्तेमाल करके, अपने मोबाइल और एज डिवाइस ऐप्लिकेशन में मशीन लर्निंग की सुविधा को तुरंत जोड़ा जा सकता है. इसके लिए, आपको मॉडल बनाने और उसे ट्रेन करने की ज़रूरत नहीं होती. इस गाइड से, LiteRT के साथ इस्तेमाल करने के लिए, ट्रेन किए गए मॉडल ढूंढने और उन्हें चुनने में मदद मिलती है.
Kaggle Models पर जाकर, मॉडल के बड़े सेट को ब्राउज़ किया जा सकता है.
अपने ऐप्लिकेशन के लिए कोई मॉडल ढूंढना
अपने इस्तेमाल के उदाहरण के लिए, किसी मौजूदा LiteRT मॉडल को ढूंढना मुश्किल हो सकता है. यह इस बात पर निर्भर करता है कि आपको क्या करना है. LiteRT के साथ इस्तेमाल करने के लिए मॉडल ढूंढने के कुछ सुझाव यहां दिए गए हैं:
उदाहरण के तौर पर: TensorFlow Lite के साथ मॉडल ढूंढने और उनका इस्तेमाल शुरू करने का सबसे तेज़ तरीका है कि आप LiteRT के उदाहरण सेक्शन ब्राउज़ करें. इससे आपको ऐसे मॉडल मिलेंगे जो आपके इस्तेमाल के उदाहरण से मिलते-जुलते टास्क करते हैं. उदाहरणों के इस छोटे कैटलॉग में, इस्तेमाल के सामान्य उदाहरणों के लिए मॉडल दिए गए हैं. साथ ही, मॉडल के बारे में जानकारी दी गई है और उन्हें चलाने और इस्तेमाल करने के लिए सैंपल कोड दिया गया है.
डेटा इनपुट टाइप के हिसाब से: अपने इस्तेमाल के उदाहरणों से मिलते-जुलते उदाहरणों को देखने के अलावा, अपने इस्तेमाल के लिए मॉडल ढूंढने का एक और तरीका है. इसके लिए, आपको यह देखना होगा कि आपको किस तरह के डेटा को प्रोसेस करना है. जैसे, ऑडियो, टेक्स्ट, इमेज या वीडियो डेटा. मशीन लर्निंग मॉडल को अक्सर इनमें से किसी एक तरह के डेटा के साथ इस्तेमाल करने के लिए डिज़ाइन किया जाता है. इसलिए, ऐसे मॉडल ढूंढें जो आपके इस्तेमाल किए जाने वाले डेटा टाइप को हैंडल कर सकें. इससे आपको यह तय करने में मदद मिल सकती है कि किन मॉडल का इस्तेमाल किया जाए.
यहां इस्तेमाल के सामान्य मामलों के लिए, Kaggle Models पर LiteRT मॉडल के लिंक दिए गए हैं:
- इमेज क्लासिफ़िकेशन मॉडल
- ऑब्जेक्ट का पता लगाने वाले मॉडल
- टेक्स्ट क्लासिफ़िकेशन मॉडल
- टेक्स्ट एम्बेड करने वाले मॉडल
- ऑडियो स्पीच सिंथेसिस मॉडल
- ऑडियो एम्बेड करने वाले मॉडल
मिलते-जुलते मॉडल में से कोई मॉडल चुनना
अगर आपका ऐप्लिकेशन, इमेज क्लासिफ़िकेशन या ऑब्जेक्ट डिटेक्शन जैसे सामान्य इस्तेमाल के उदाहरणों का पालन करता है, तो आपको अलग-अलग TensorFlow Lite मॉडल में से किसी एक को चुनना पड़ सकता है. इन मॉडल का बाइनरी साइज़, डेटा इनपुट साइज़, अनुमान लगाने की स्पीड, और अनुमान लगाने की सटीकता की रेटिंग अलग-अलग होती है. कई मॉडल में से किसी एक को चुनते समय, आपको सबसे पहले अपनी सबसे बड़ी समस्या के आधार पर विकल्पों को सीमित करना चाहिए: मॉडल का साइज़, डेटा का साइज़, अनुमान लगाने की स्पीड या सटीक अनुमान.
अगर आपको यह नहीं पता कि सबसे ज़्यादा सीमा किस वजह से लगी है, तो मान लें कि यह मॉडल के साइज़ की वजह से है. इसके बाद, सबसे छोटा मॉडल चुनें. छोटा मॉडल चुनने पर, आपको उन डिवाइसों के बारे में ज़्यादा जानकारी मिलती है जिन पर मॉडल को आसानी से डिप्लॉय और चलाया जा सकता है. छोटे मॉडल, आम तौर पर तेज़ी से अनुमान लगाते हैं. साथ ही, तेज़ी से अनुमान लगाने से, आम तौर पर उपयोगकर्ताओं को बेहतर अनुभव मिलता है. आम तौर पर, छोटे मॉडल के सटीक होने की दर कम होती है. इसलिए, अगर आपको अनुमान के सटीक होने की चिंता है, तो आपको बड़े मॉडल चुनने पड़ सकते हैं.
मॉडल के लिए सोर्स
TensorFlow Lite के साथ इस्तेमाल करने के लिए मॉडल ढूंढने और चुनने के लिए, LiteRT के उदाहरण सेक्शन और Kaggle मॉडल का इस्तेमाल करें. इन सोर्स में आम तौर पर, LiteRT के साथ इस्तेमाल करने के लिए अप-टू-डेट और चुने गए मॉडल होते हैं. साथ ही, इनमें अक्सर सैंपल कोड भी शामिल होता है, ताकि डेवलपमेंट की प्रोसेस को तेज़ी से पूरा किया जा सके.
TensorFlow मॉडल
सामान्य TensorFlow मॉडल को TensorFlow Lite फ़ॉर्मैट में बदला जा सकता है. मॉडल को बदलने के बारे में ज़्यादा जानकारी के लिए, TensorFlow Lite Converter का दस्तावेज़ देखें. आपको TensorFlow मॉडल, Kaggle Models और TensorFlow Model Garden में मिल सकते हैं.