जेम्मा मॉडल की खास जानकारी

जेम्मा हल्के और आधुनिक ओपन मॉडल का एक फ़ैमिली है. इन्हें उसी रिसर्च और टेक्नोलॉजी से बनाया गया है जिसका इस्तेमाल Gemini मॉडल को बनाने के लिए किया गया. Google DeepMind और Google की अन्य टीमों ने इसे बनाया है. जेम्मा का नाम लैटिन भाषा के gemma पर रखा गया है, जिसका मतलब है "कीमती पत्थर." जेम्मा मॉडल के महत्व को ऐसे डेवलपर टूल पर आधारित किया जाता है जो इनोवेशन, साथ मिलकर काम करने, और आर्टिफ़िशियल इंटेलिजेंस (एआई) के ज़िम्मेदारी से इस्तेमाल को बढ़ावा देने में मदद करते हैं.

जेम्मा मॉडल आपके ऐप्लिकेशन में और आपके हार्डवेयर, मोबाइल डिवाइस या होस्ट की गई सेवाओं पर चलने के लिए उपलब्ध हैं. ट्यूनिंग तकनीकों का इस्तेमाल करके भी इन मॉडल को पसंद के मुताबिक बनाया जा सकता है. इससे वे ऐसे टास्क पूरे करने में माहिर होते हैं जो आपके और आपके उपयोगकर्ताओं के लिए ज़रूरी हैं. जेम्मा मॉडल, Gemini मॉडल की टेक्नोलॉजी से प्रेरणा और टेक्नोलॉजी का इस्तेमाल करते हैं. इन्हें एआई डेवलप करने वाली कम्यूनिटी के लिए बनाया गया है, ताकि इनका दायरा बढ़ाया जा सके और आगे बढ़ने में मदद की जा सके.

टेक्स्ट जनरेट करने के लिए, Gemma मॉडल का इस्तेमाल किया जा सकता है. हालांकि, आपके पास इन मॉडल को बेहतर बनाने का विकल्प भी है. ऐसा करके, कुछ खास टास्क पूरे किए जा सकते हैं. ट्यून किए गए जेमा मॉडल से, आपको और आपके उपयोगकर्ताओं को ज़्यादा टारगेट किए गए और असरदार जनरेटिव एआई समाधान मिल सकते हैं. LoRA के साथ ट्यून करने के बारे में हमारी गाइड देखें और इसे आज़माएं! हम यह देखने के लिए उत्साहित हैं कि आपने Gemma के साथ क्या बनाया!

यह डेवलपर दस्तावेज़ उपलब्ध Gemma मॉडल और डेवलपमेंट गाइड की खास जानकारी देता है. इन गाइड में, इन मॉडल को लागू करने और इन्हें खास ऐप्लिकेशन के लिए ट्यून करने का तरीका बताया गया है.

मॉडल के आकार और क्षमताएं

जेम्मा मॉडल कई साइज़ में उपलब्ध हैं, ताकि आप अपने उपलब्ध कंप्यूटिंग संसाधनों, अपनी ज़रूरत की क्षमताओं, और उन्हें कहां चलाना हो, के आधार पर जनरेटिव एआई समाधान बना सकें. अगर आपको नहीं पता कि शुरुआत कहां से करनी है, तो कम रिसॉर्स की ज़रूरी शर्तों के लिए 2B पैरामीटर साइज़ आज़माकर देखें. साथ ही, मॉडल को डिप्लॉय करते समय ज़्यादा विकल्प भी दिए जा सकते हैं.

पैरामीटर का साइज़ इनपुट आउटपुट ट्यून किए गए वर्शन वे प्लैटफ़ॉर्म जिन पर आपका कॉन्टेंट मौजूद है
2B टेक्स्ट टेक्स्ट
  • पहले से ट्रेन किया गया
  • निर्देश ट्यून किए गए
मोबाइल डिवाइस और लैपटॉप
7 अरब टेक्स्ट टेक्स्ट
  • पहले से ट्रेन किया गया
  • निर्देश ट्यून किए गए
डेस्कटॉप कंप्यूटर और छोटे सर्वर

Keras 3.0 की मल्टी-बैक्ड सुविधा का इस्तेमाल करके, इन मॉडल को TensorFlow, JAX, और PyTorch पर चलाया जा सकता है. इसके अलावा, JAX और PyTorch के आधार पर JAX के नेटिव इंप्लीमेंटेशन का इस्तेमाल किया जा सकता है.

Kaggle मॉडल से, Gemma मॉडल डाउनलोड किए जा सकते हैं.

ट्यून किए गए मॉडल

अतिरिक्त ट्रेनिंग की मदद से, Gemma मॉडल के व्यवहार में बदलाव किया जा सकता है, ताकि मॉडल कुछ खास टास्क पर बेहतर परफ़ॉर्म करे. इस प्रोसेस को मॉडल ट्यूनिंग कहा जाता है. इस तकनीक से, मॉडल की टारगेट की गई टास्क को पूरा करने की क्षमता बेहतर होती है. हालांकि, इसकी वजह से अन्य टास्क में मॉडल की क्वालिटी खराब हो सकती है. इस वजह से, Gemma मॉडल, ट्यून किए गए और पहले से ट्रेनिंग, दोनों वर्शन में उपलब्ध हैं:

  • पहले से ट्रेनिंग दी गई है - इस मॉडल के इन वर्शन को Gemma कोर डेटा ट्रेनिंग सेट के अलावा, किसी खास टास्क या निर्देश के लिए ट्रेनिंग नहीं दी गई है. आपको कुछ ट्यूनिंग किए बिना इन मॉडल को डिप्लॉय नहीं करना चाहिए.
  • निर्देश ट्यून किए गए - मॉडल के इन वर्शन को लोगों की भाषा में इंटरैक्शन करने की ट्रेनिंग दी गई है. साथ ही, ये चैट बॉट की तरह ही बातचीत वाले इनपुट का जवाब दे सकते हैं.

शुरू करें

Gemma की मदद से समाधान बनाने के लिए, ये गाइड देखें: