Google AI Edge
मोबाइल, वेब, और एम्बेड किए गए ऐप्लिकेशन के लिए, डिवाइस पर मौजूद एआई (AI)
मॉडल से लेकर पाइपलाइन तक, हर तरह के डिवाइस पर मिलने वाले समाधान
मशीन लर्निंग (एमएल) डिप्लॉयमेंट की रफ़्तार बढ़ाएं, पाइपलाइन ऑप्टिमाइज़ करें, और असरदार एलएलएम आसानी से ऐक्सेस करें
बहुत ज़्यादा और कम लेवल के कॉम्पोनेंट दिखाने वाला एंड-टू-एंड स्टैक
I/O में नया क्या है?
MediaPipe
डिवाइस पर, आसानी से नए-नए एमएल सलूशन बनाएं
MediaPipe की मदद से सामान्य चुनौतियों को हल करें
TensorFlow लाइट
यह एक छोटी और कई फ़्रेमवर्क वाली लाइब्रेरी है. इसकी मदद से मोबाइल, वेब, और माइक्रोकंट्रोलर पर मॉडल डिप्लॉय किए जा सकते हैं.
जनरेटिव एआई, जो डिवाइस पर इस्तेमाल किया जा रहा है
MediaPipe LLM अनुमान एपीआई
पूरी तरह से एलएलएम, डिवाइस पर चलाएं और कई तरह के काम करें. जैसे, टेक्स्ट जनरेट करना, आम भाषा में जानकारी पाना, और दस्तावेज़ों की खास जानकारी पाना. यह एपीआई, टेक्स्ट-टू-टेक्स्ट वाले कई लार्ज लैंग्वेज मॉडल के साथ काम करता है. इससे, डिवाइस पर मौजूद नए जनरेटिव एआई मॉडल को अपने ऐप्लिकेशन और प्रॉडक्ट में लागू किया जा सकता है. ज़्यादा जानें
टॉर्च जनरेटिव एपीआई
PyTorch में अच्छी परफ़ॉर्मेंस वाले एलएलएम. इसके बाद, TensorFlow Lite (TFLite) रनटाइम का इस्तेमाल करके, उन्हें डिवाइस पर चलने वाले में बदलें. ज़्यादा जानें.
जेमिनी नैनो
Android AICore की मदद से, डिवाइस पर मौजूद टास्क के लिए, हमारे सबसे बेहतर Gemini मॉडल को ऐक्सेस करें. Chrome पर जल्द आ रहा है.
किनारे वाले डिवाइसों पर मशीन लर्निंग का इस्तेमाल क्यों करना चाहिए?
जवाब के लिए इंतज़ार करना पड़ा
आसान, तेज़, और रीयल-टाइम मीडिया प्रोसेसिंग के लिए, सर्वर को एक राउंड ट्रिप से स्किप कर दें.
निजता
डिवाइस से संवेदनशील जानकारी हटाए बिना, स्थानीय तौर पर अनुमान लगाएं.
कीमत
उपयोगकर्ता के डिवाइस पर मौजूद कंप्यूट संसाधनों का इस्तेमाल करें और सर्वर की लागत बचाएं.
बिना इंटरनेट के चलाए जा सकने वाले वीडियो
इंटरनेट कनेक्शन नहीं है, कोई समस्या नहीं है.