EverythingAI API
एआई टास्क, जिनकी ट्रेनिंग के लिए खास तौर पर बड़े डेटासेट की ज़रूरत नहीं होती.
यह क्या करता है
यह एपीआई, डीपफ़ेक का पता लगा सकता है, बोली को टेक्स्ट में बदल सकता है, अमेरिकन साइन लैंग्वेज (एएसएल) का विश्लेषण कर सकता है वगैरह. इसके लिए, किसी डेटासेट पर ट्रेनिंग की ज़रूरत नहीं होती. यह Gemini Flash 1.5 और "इंपोज़िशन-कॉन्टेक्स्ट" तकनीक की मदद से किया जा सकता है.
फ़िलहाल, इस एपीआई में एआई से जुड़े ये काम शामिल हैं: डीपफ़ेक का पता लगाना, कई भाषाओं में बोली को टेक्स्ट में बदलना. यह सुविधा, कई भाषाओं में मौजूद ऑडियो के लिए whisper-large-v3 से बेहतर नतीजे देती है. साथ ही, वीडियो में साइन लैंग्वेज का ज़्यादा सटीक और बेहतर विश्लेषण और उसका अनुवाद करना, सिर्फ़ दो सेकंड में टेक्स्ट की 80 से ज़्यादा भावनात्मक स्थितियों का पता लगाना, और कैरेक्टर की पहचान करने के साथ-साथ ओसीआर की सुविधा, जो मौजूदा बड़े ओसीआर सिस्टम के मुकाबले ज़्यादा सटीक है. हम एआई से जुड़े और भी कामों को इंटिग्रेट करने पर काम कर रहे हैं.
अगर हम Gemini Flash 1.5 में वीडियो को बिना किसी बदलाव के डालते हैं, तो यह डीपफ़ेक का पता नहीं लगा पाएगा. यहां देखा जा सकता है कि Gemini Flash 1.5, डीपफ़ेक की पहचान करने में मुश्किल कर रहा है. इसलिए, मैंने "कॉन्टेक्स्ट लागू करने" वाली प्रॉम्प्टिंग तकनीक विकसित की है.
इसमें, उपयोगकर्ता मॉडल को प्रॉम्प्ट करता है और उसके कॉन्टेक्स्ट को खुद समझने का इंतज़ार करता है. इसके बजाय, "कॉन्टेक्स्ट लागू करने" की तकनीक में, मॉडल के आउटपुट के इतिहास को सीधे तौर पर लागू किया जाता है. असल में, मॉडल खुद जवाब नहीं लिखता. ये जवाब मैंने लिखे हैं.
हालांकि, चैट के इतिहास को देखते समय, यह गलत तरीके से यह मान लेता है कि उसने ही ये जवाब जनरेट किए हैं. इससे, यह उपयोगकर्ता के इंटेंट को समझने में मदद मिलती है. जैसा कि आप देख सकते हैं, इस तरीके से बेहतर नतीजे मिलते हैं. Gemini Flash 1.5, डीपफ़ेक का विश्लेषण करने के साथ-साथ, सटीक नतीजे भी देता है.
इनकी मदद से बनाया गया
- एपीआई एआई
टीम
इन्होंने बदलाव किया है
ShynAI
इन्होंने भेजा
वियतनाम