Gemma के ओपन मॉडल
यह लाइटवेट और बेहतरीन ओपन मॉडल है. इन्हें Gemini मॉडल बनाने में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है
पेश है
Gemma 2
शानदार परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए, Gemma 2 को फिर से डिज़ाइन किया गया है. यह अलग-अलग तरह के हार्डवेयर के लिए, तेज़ी से अनुमान लगाने की सुविधा को ऑप्टिमाइज़ करता है.
5-शॉट
MMLU
एमएमएलयू बेंचमार्क एक ऐसा टेस्ट है जो प्री-ट्रेनिंग के दौरान, लार्ज लैंग्वेज मॉडल के ज़रिए हासिल किए गए ज्ञान और समस्या हल करने की क्षमता का आकलन करता है.
25-शॉट
ARC-C
ARC-c बेंचमार्क, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनके जवाब सामान्य (डेटा पाने का आधार और शब्द के साथ आने) वाले एल्गोरिदम का गलत तरीके से दिए गए हैं.
5-shot
जीएसएम8के
GSM8K बेंचमार्क, ग्रेड-स्कूल के गणित के सवालों को हल करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसमें अक्सर रीज़निंग के कई चरणों की ज़रूरत होती है.
3-5-शॉट
AGIEval
एजीआईईवल बेंचमार्क में, भाषा के मॉडल के सामान्य इंटेलिजेंस की जांच की जाती है. इसके लिए, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल किया जाता है, जो इंसानों की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन किए गए हैं.
3-शॉट, CoT
BBH
BBH (BIG-Bench Hard) बेंचमार्क, उन टास्क पर फ़ोकस करता है जो मौजूदा लैंग्वेज मॉडल के लिए मुश्किल माने जाते हैं. यह अलग-अलग तरह के डोमेन में, तर्क और समझने की क्षमता की जांच करता है.
तीन शॉट, F1
नीचे झुक जाएं
DROP, पढ़ने और समझने की क्षमता का मानदंड है. इसके लिए पैराग्राफ़ के तौर पर, अलग-अलग तर्क की ज़रूरत होती है.
5-शॉट
विनोग्रांडे
Winogrande बेंचमार्क, किसी भाषा मॉडल की क्षमता की जांच करता है. यह जांच यह पता लगाने के लिए की जाती है कि वह खाली जगहों को भरने वाले ऐसे टास्क को हल कर सकता है या नहीं जिनमें दो विकल्प होते हैं. इन टास्क को हल करने के लिए, सामान्य समझ की ज़रूरत होती है.
10-शॉट
HellaSwag
HellaSwag बेंचमार्क किसी कहानी के सबसे तार्किक अंत को चुनकर, सामान्य ज्ञान से जुड़े तर्क को समझने और उसे लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.
4-शॉट
MATH
MATH, किसी भाषा मॉडल की गणित के जटिल सवालों को हल करने की क्षमता का आकलन करता है. इसके लिए, रीज़निंग, कई चरणों में समस्या हल करने, और गणित के कॉन्सेप्ट को समझने की ज़रूरत होती है.
0-शॉट
ARC-e
ARC-e बेंचमार्क, भाषा मॉडल की सवालों के जवाब देने की बेहतरीन क्षमताओं की जांच करता है. इसके लिए, यह ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल करता है.
0-शॉट
PIQA
PIQA बेंचमार्क, किसी भाषा मॉडल की इस क्षमता की जांच करता है कि वह रोज़मर्रा के कामों के बारे में पूछे गए सवालों के जवाब देकर, सामान्य ज्ञान को समझ और लागू कर सकता है या नहीं.
0-शॉट
SIQA
SIQA मानदंड, लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, यह आकलन करता है कि भाषा मॉडल, सामाजिक इंटरैक्शन और सामाजिक सामान्य समझ को कितना समझता है.
0-शॉट
बूल्क
BoolQ बेंचमार्क, स्वाभाविक रूप से हां या नहीं में जवाब देने की भाषा के मॉडल की क्षमता को परखता है. साथ ही, इस मॉडल की मदद से असल दुनिया में प्राकृतिक भाषा का अनुमान लगाने के टास्क कर पाता है.
5-shot
TriviaQA
ट्रिवियाQA बेंचमार्क तीन बार सवालों के जवाब के साथ, समझने की क्षमता की जांच करता है.
5-शॉट
NQ
एनक्यू (नैचुरल सवाल) मानदंड की मदद से, विकिपीडिया के सभी लेखों में जवाब ढूंढने और समझने की भाषा मॉडल की क्षमता की जांच की जाती है. साथ ही, यह जांच की जाती है कि असल दुनिया में किस तरह के सवाल पूछे जाते हैं और इसका जवाब कैसे दिया जाता है.
पास@1
HumanEval
HumanEval बेंचमार्क, किसी भाषा मॉडल की कोड जनरेशन क्षमताओं की जांच करता है. इसके लिए, यह जांच की जाती है कि उसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट पास करते हैं या नहीं.
3-शॉट
MBPP
एमबीपीपी बेंचमार्क की मदद से, Python प्रोग्रामिंग से जुड़ी बुनियादी समस्याओं को हल करने में भाषा मॉडल की क्षमता की जांच की जाती है. इसमें, प्रोग्रामिंग के बुनियादी सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर ध्यान दिया जाता है.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
मिस्ट्रल
7 अरब
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 अरब
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
मिस्ट्रल
7 अरब
LLAMA 3
8B
Gemma 1
7 अरब
Gemma 2
9B
Gemma 2
27 अरब
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
LLAMA 3
8B
जेमा 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8B
जेमा 1
7 अरब
Gemma 2
9B
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
LLAMA 3
8B
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
मिस्ट्रल
7B
लामा 3
8 अरब
जेमा 1
7 अरब
Gemma 2
9B
Gemma 2
27B
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
जेमा 1
7B
Gemma 2
9 अरब
Gemma 2
27B
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
लामा 3
8 अरब
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7B
जेमा 1
7B
Gemma 2
9 अरब
Gemma 2
27 अरब
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9B
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
मिस्ट्रल
7B
जेमा 1
7 अरब
Gemma 2
9B
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7B
Gemma 1
7 अरब
Gemma 2
9 अरब
Gemma 2
27B
जेमा 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
जेमा 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
मिस्ट्रल
7 अरब
जेमा 1
7B
Gemma 2
9 अरब
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
जेमा 1
7B
Gemma 2
9B
Gemma 2
27 अरब
Gemma 1
2.5 अरब
Gemma 2
2.6 अरब
Mistral
7 अरब
Gemma 1
7 अरब
Gemma 2
9B
Gemma 2
27B
*ये पहले से ट्रेन किए गए मॉडल के मानदंड हैं. दूसरे तरीकों के साथ परफ़ॉर्मेंस की जानकारी पाने के लिए तकनीकी रिपोर्ट देखें.
Gemma मॉडल फ़ैमिली
हमारे टूल एक्सप्लोर करना
डेवलपर के लिए आसानी से सिखाने वाली गाइड
पार्टनर के लिए आसानी से सीखें
Gemma Cookbook
PaliGemma की मदद से इमेज के कैप्शन बनाने, CodeGemma की मदद से कोड जनरेट करने, और बेहतर बनाए गए Gemma मॉडल की मदद से चैटबॉट बनाने जैसे कामों के लिए, Gemma की क्षमता और अलग-अलग कामों में इस्तेमाल करने के उदाहरणों का कलेक्शन एक्सप्लोर करें.
ज़िम्मेदारी के साथ एआई का डेवलपमेंट
डिज़ाइन के हिसाब से ज़िम्मेदारी
गेम को बहुत ध्यान से चुने गए डेटा के आधार पर ट्रेनिंग दी जाती है. साथ ही, बेहतर सुरक्षा के लिए इसे तैयार किया जाता है. इससे Gemma मॉडल की मदद से, एआई को सुरक्षित और भरोसेमंद बनाने में मदद मिलती है.
मज़बूत और पारदर्शी आकलन
हर इस्तेमाल के उदाहरण के लिए ज़िम्मेदार तरीके अपनाने के लिए, मॉडल की सीमाओं को ज़ाहिर करने के लिए, पूरी तरह से जांच की जाती है और पारदर्शी रिपोर्टिंग की जाती है.
ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना
ज़िम्मेदार जनरेटिव एआई टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई के इस्तेमाल के सबसे सही तरीके डिज़ाइन और लागू करने में मदद करता है.
Google Cloud के लिए ऑप्टिमाइज़ किया गया
Google Cloud पर Gemini मॉडल की मदद से, Vertex AI के पूरी तरह से मैनेज किए जाने वाले टूल या GKE के खुद मैनेज किए जाने वाले विकल्प का इस्तेमाल करके, मॉडल को अपनी ज़रूरतों के हिसाब से ज़्यादा बेहतर बनाया जा सकता है. साथ ही, इसे एआई के लिए ऑप्टिमाइज़ किए गए, सुविधाजनक, और किफ़ायती इन्फ़्रास्ट्रक्चर पर डिप्लॉय किया जा सकता है.
Google Cloud क्रेडिट की मदद से शिक्षा से जुड़ी रिसर्च को बढ़ावा देना
अकैडमिक रिसर्च प्रोग्राम में आवेदन करने की अवधि हाल ही में खत्म हुई है. इसके तहत, रिसर्च करने वाले लोगों को Google Cloud क्रेडिट दिया जाता है, ताकि वे जेमा मॉडल का इस्तेमाल करके, विज्ञान की नई खोजों पर काम कर सकें. हमें इस पहल से होने वाली नई खोजों को देखने का इंतज़ार रहेगा.
कम्यूनिटी से जुड़ें
मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.