Gemma ओपन मॉडल
यह लाइटवेट और बेहतरीन ओपन मॉडल है. इन्हें Gemini मॉडल बनाने में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है
पेश है
Gemma 2
शानदार परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए, Gemma 2 को फिर से डिज़ाइन किया गया है. यह अलग-अलग तरह के हार्डवेयर के लिए, तेज़ी से अनुमान लगाने में मदद करता है.
5-शॉट
MMLU
MMLU मानदंड एक ऐसा टेस्ट है जिससे पता चलता है कि प्री-ट्रेनिंग के दौरान, बड़े लैंग्वेज मॉडल ने कितनी जानकारी हासिल की है और समस्या का हल निकालने की कितनी क्षमता है.
25-शॉट
ARC-C
ARC-c बेंचमार्क, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनके जवाब सामान्य (डेटा पाने का आधार और शब्द के साथ आने) वाले एल्गोरिदम का गलत तरीके से दिए गए हैं.
5-शॉट
जीएसएम8के
GSM8K बेंचमार्क, ग्रेड-स्कूल के गणित के सवालों को हल करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसमें अक्सर रीज़निंग के कई चरणों की ज़रूरत होती है.
3-5-शॉट
AGIEval
एजीआईईवल बेंचमार्क में, भाषा के मॉडल के सामान्य इंटेलिजेंस की जांच की जाती है. इसके लिए, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल किया जाता है, जो इंसानों की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन किए गए हैं.
3-शॉट, CoT
BBH
BBH (बिग-बेंच हार्ड) बेंचमार्क, उन कामों पर फ़ोकस करता है जो भाषा के मौजूदा मॉडल की क्षमताओं से परे माने जाते हैं. साथ ही, इसमें अलग-अलग रीज़निंग और समझ वाले डोमेन की सीमाओं की जांच की जाती है.
3-शॉट, F1
नीचे झुक जाएं
DROP, पढ़ने और समझने की क्षमता का मानदंड है. इसके लिए पैराग्राफ़ के तौर पर, अलग-अलग तर्क की ज़रूरत होती है.
5-शॉट
विनोग्रांडे
विनोग्रांडे बेंचमार्क, बाइनरी विकल्पों की मदद से मुश्किल भरे कामों को पूरा करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसके लिए सामान्य सामान्य सामान्य तर्क की ज़रूरत होती है.
10-शॉट
HellaSwag
HellaSwag बेंचमार्क किसी कहानी के सबसे तार्किक अंत को चुनकर, सामान्य ज्ञान से जुड़े तर्क को समझने और उसे लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.
4-शॉट
गणित
MATH, गणित के जटिल शब्द सवालों को हल करने में भाषा के मॉडल की क्षमता का आकलन करता है. इसमें तर्क के साथ, कई चरणों में सवाल हल करना, और गणित के सिद्धांतों को समझना ज़रूरी है.
0-शॉट
ARC-e
ARC-e बेंचमार्क की टेक्नोलॉजी, भाषा से जुड़े ऐडवांस लेवल के सवालों के जवाब देने के ऐडवांस कौशल की जांच करती है. इसके लिए, ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल किया जाता है.
0-शॉट
PIQA
PIQA बेंचमार्क की मदद से, रोज़मर्रा की शारीरिक बातचीत से जुड़े सवालों के जवाब देकर, भाषा के मॉडल की शारीरिक सामान्य ज्ञान को समझने और उसे लागू करने की क्षमता को परखा जाता है.
0-शॉट
SIQA
SIQA बेंचमार्क लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, किसी भाषा के मॉडल की सामाजिक इंटरैक्शन और सामाजिक आम समझ का आकलन करता है.
0-शॉट
Boolq
BoolQ बेंचमार्क, स्वाभाविक रूप से हां या नहीं में जवाब देने की भाषा के मॉडल की क्षमता का परीक्षण करता है. साथ ही, मॉडल की वास्तविक भाषा के प्राकृतिक भाषा अनुमान के टास्क करने की क्षमता की जांच करता है.
5-शॉट
TriviaQA
ट्रिवियाQA बेंचमार्क तीन बार सवाल-जवाब के साथ, पढ़ने और समझने की क्षमता की जांच करता है.
5-शॉट
NQ
NQ (सामान्य सवाल) मानदंड की मदद से, विकिपीडिया के सभी लेखों में जवाब ढूंढने और समझने की भाषा मॉडल की क्षमता का आकलन किया जाता है. इसमें, असल दुनिया में होने वाले सवालों के जवाब दिए जाते हैं.
पास@1
HumanEval
HumanEval बेंचमार्क, लैंग्वेज मॉडल के कोड जनरेट करने की क्षमताओं की जांच करता है. इसके लिए, यह आकलन किया जाता है कि इसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट को पास करते हैं या नहीं.
3-शॉट
MBPP
MBPP मानदंड, Python प्रोग्रामिंग की बुनियादी समस्याओं को हल करने में भाषा मॉडल की क्षमता की जांच करता है. इसमें बुनियादी प्रोग्रामिंग सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर ध्यान दिया जाता है.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
*ये पहले से ट्रेन किए गए मॉडल के मानदंड हैं. दूसरे तरीकों के साथ परफ़ॉर्मेंस की जानकारी पाने के लिए तकनीकी रिपोर्ट देखें.
जेमा मॉडल फ़ैमिली
हमारे टूल के बारे में जानें
डेवलपर के लिए आसानी से सिखाने वाली गाइड
पार्टनर के लिए आसानी से सीखें
जेमा कुकबुक
Gemma की बेहतरीन रेसिपी और कई तरह के काम दिखाने वाली रेसिपी और उदाहरणों का कलेक्शन देखें. जैसे, PaliGemma के साथ इमेज कैप्शनिंग, CodeGemma की मदद से कोड जनरेट करना, और बेहतरीन जेमा मॉडल की मदद से चैटबॉट बनाना.
ज़िम्मेदारी के साथ एआई का डेवलपमेंट
डिज़ाइन के हिसाब से ज़िम्मेदारी
गेम को बहुत ध्यान से चुने गए डेटा के आधार पर ट्रेनिंग दी जाती है. साथ ही, बेहतर सुरक्षा के लिए इसे तैयार किया जाता है. इससे Gemma मॉडल की मदद से, एआई को सुरक्षित और भरोसेमंद बनाने में मदद मिलती है.
मज़बूत और पारदर्शी आकलन
बेहतर आकलन और पारदर्शी रिपोर्टिंग से, मॉडल की सीमाओं के बारे में पता चलता है, ताकि इस्तेमाल के हर उदाहरण के लिए ज़िम्मेदार तरीका अपनाया जा सके.
ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना
ज़िम्मेदार जनरेटिव एआई टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई के इस्तेमाल के सबसे सही तरीके डिज़ाइन और लागू करने में मदद करता है.
Google Cloud के लिए ऑप्टिमाइज़ किया गया
Google Cloud पर Gemma मॉडल की मदद से, मॉडल को अपनी ज़रूरत के हिसाब से कस्टमाइज़ किया जा सकता है. इसके लिए, Vertex AI के पूरी तरह से मैनेज किए गए टूल या GKE के खुद से मैनेज होने वाले टूल का इस्तेमाल किया जा सकता है. साथ ही, इसे ज़रूरत के हिसाब से और किफ़ायती एआई को ऑप्टिमाइज़ करने वाले इन्फ़्रास्ट्रक्चर के लिए डिप्लॉय किया जा सकता है.
Google Cloud क्रेडिट की मदद से शिक्षा से जुड़ी रिसर्च को बढ़ावा देना
अकैडमिक रिसर्च प्रोग्राम में आवेदन करने की अवधि हाल ही में खत्म हुई है. इसके तहत, रिसर्च करने वाले लोगों को Google Cloud क्रेडिट दिया जाता है, ताकि वे जेमा मॉडल का इस्तेमाल करके, विज्ञान की नई खोजों पर काम कर सकें. हम इस पहल से होने वाले अभूतपूर्व शोध को देखने के लिए उत्साहित हैं.
कम्यूनिटी से जुड़ें
मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.