Gemma ओपन मॉडल

Gemini मॉडल को बनाने के लिए इस्तेमाल की गई रिसर्च और टेक्नोलॉजी से बनाए गए हल्के-फुल्के और आधुनिक ओपन मॉडल का फ़ैमिली ग्रुप

Gemma मॉडल का लोगो

ज़िम्मेदारी के साथ डिज़ाइन की गई

सुरक्षा के बेहतर तरीके अपनाते हुए, ये मॉडल चुनिंदा डेटासेट और बेहतर ट्यूनिंग की मदद से ज़िम्मेदार और भरोसेमंद एआई सलूशन पक्का करने में मदद करते हैं.

Gemma मॉडल का लोगो

आकार में बेमेल प्रदर्शन

जेम्मा मॉडल, 2B और 7B साइज़ में बेहतरीन मानदंड नतीजे हासिल करते हैं. इतना ही नहीं, ये मॉडल कुछ बड़े ओपन मॉडल को भी पीछे छोड़ देते हैं.

Gemma मॉडल का लोगो

फ़्रेमवर्क सुविधाजनक

Keras 3.0 के साथ, JAX, TensorFlow, और PyTorch के साथ बिना किसी रुकावट के काम करें, ताकि आप अपने टास्क के हिसाब से आसानी से फ़्रेमवर्क चुन सकें और स्विच कर सकें.

डेवलपर के लिए आसानी से सिखाने वाली गाइड

मानदंड

Gemma ने Lama 2 और Mintral 7B जैसे मशहूर मॉडल के मुकाबले, साइज़ की आधुनिक परफ़ॉर्मेंस को नई ऊंचाइयों तक पहुंचाया है.

5-शॉट, टॉप-1

एमएमएलयू

MMLU मानदंड, एक ऐसा टेस्ट है जिसमें यह देखा जाता है कि प्रीट्रेनिंग के दौरान, भाषा के बड़े मॉडल ने कितनी जानकारी हासिल की है और समस्याओं को हल किया है या नहीं.

0-शॉट

HellaSwag

HellaSwag का मानदंड, भाषा के मॉडल को किसी कहानी का सबसे तार्किक अंत चुनकर, अपनी सामान्य सूझ-बूझ को समझने और लागू करने की क्षमता को चुनौती देता है.

0-शॉट

पीआईक्यूए

PIQA मानदंड, रोज़ाना की शारीरिक गतिविधियों से जुड़े सवालों के जवाब देकर, भाषा मॉडल की शारीरिक सामान्य ज्ञान को समझने और लागू करने की क्षमता की जांच करता है.

0-शॉट

एसआईक्यूए

SIQA मानदंड, लोगों की गतिविधियों और उनके सामाजिक असर के बारे में सवाल पूछकर, किसी भाषा मॉडल की सामाजिक इंटरैक्शन और सामाजिक समझ को समझने की समझ का मूल्यांकन करता है.

0-शॉट

बूक

BoolQ मानदंड, हां/नहीं वाले सवालों के जवाब देने की भाषा के मॉडल की क्षमता की जांच करता है. इससे, वह असली भाषा का अनुमान लगाने वाले टास्क करने की मॉडल की क्षमता की जांच करता है.

पार्शियल स्कोरिंग

विनोग्रांड

Winogrande मानदंड, भाषा मॉडल की क्षमता की जांच करता है. इससे वह बाइनरी विकल्पों की मदद से, खाली जगहों पर भरे टास्क को आसानी से हल कर पाता है. इसके लिए, सामान्य नियमों को समझना ज़रूरी होता है.

सात-शॉट

सीक्यूए

CQA मानदंड, भाषा के मॉडल की परफ़ॉर्मेंस का आकलन कई विकल्प वाले सवालों के जवाब देने के आधार पर करता है. इसमें अलग-अलग तरह की सामान्य जानकारी की ज़रूरत होती है.

ओबीक्यूए

OBQA मानदंड, ओपन बुक की परीक्षाओं के बाद कई चरणों वाली रीज़निंग, कॉमनसेंस नॉलेज, और रिच टेक्स्ट कॉम्प्रिहेंसन की मदद से, बेहतर सवाल-जवाब करने की लैंग्वेज मॉडल की क्षमता का आकलन करता है.

एआरसी-ई

ARC-e मानदंड, भाषा मॉडल के सवालों के जवाब देने के बेहतर कौशल की जांच करता है. इसके लिए, ग्रेड-स्कूल लेवल के सही और कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल किया जाता है.

एआरसी-सी

ARC-c मानदंड, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ उन सवालों के ही जवाब दिए गए हैं जिनके जवाब सामान्य (रिकवरी-बेस और शब्द एक साथ होने वाले) एल्गोरिदम की मदद से गलत तरीके से दिए गए हैं.

पांच शॉट

TriviaQA

TriviaQA का मानदंड, सवाल-जवाब के तौर पर तीन गुना की मदद से पढ़ने और समझने की क्षमता की जांच करता है.

पास@1

HumanEval

HumanEval का मानदंड, भाषा मॉडल की कोड जनरेट करने की क्षमताओं की जांच करता है. इसके लिए, यह आकलन किया जाता है कि इसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट में पास होते हैं या नहीं.

तीन-शॉट

एमबीपीपी

एमबीPP मानदंड, Python प्रोग्रामिंग की बुनियादी समस्याओं को हल करने की लैंग्वेज मॉडल की क्षमता की जांच करता है. इसमें बुनियादी प्रोग्रामिंग सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर फ़ोकस किया जाता है.

maj@1

GSM8K

GSM8K मानदंड, ग्रेड-स्कूल की गणित की ऐसी समस्याओं को हल करने के लिए लैंग्वेज मॉडल की क्षमता की जांच करता है जिन्हें अक्सर कई चरणों वाली रीज़निंग की ज़रूरत होती है.

चार-शॉट

MATH

MATH मानदंड, गणित के मुश्किल सवालों को हल करने में लैंग्वेज मॉडल की क्षमता का आकलन करता है. इसके लिए, तर्क करने, कई चरणों वाली समस्याओं के समाधान, और गणित के कॉन्सेप्ट को समझना ज़रूरी होता है.

AGIEval

AGIEval बेंचमार्क, भाषा के मॉडल की सामान्य इंटेलिजेंस की जांच करता है. इसके लिए, यह मानवीय बौद्धिक क्षमताओं का आकलन करने के लिए, असल दुनिया की परीक्षाओं में पूछे गए सवालों का इस्तेमाल करता है. इन परीक्षाओं में कॉलेज में प्रवेश की परीक्षाएं, कानूनी परीक्षा वगैरह शामिल हैं.

बीबीएच

BBH (BIG-Bench हार्ड) मानदंड, मौजूदा भाषा मॉडल की क्षमताओं से आगे के कामों पर ध्यान देता है. साथ ही, अलग-अलग रीज़निंग और डोमेन में उनकी सीमाओं की जांच करता है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

जेमा

7 अरब

78 जीबी में से

जेमा

2बी

42.3

मिस्ट्रल

7 अरब

62.5

LLAMA-2

13 अरब

यूरो

LLAMA-2

7 अरब

45.3

जेमा

7 अरब

81.2

जेमा

2बी

71.4

मिस्ट्रल

7 अरब

81.0

LLAMA-2

13 अरब

80.7

LLAMA-2

7 अरब

77.2

जेमा

7 अरब

81.2

जेमा

2बी

77.3

मिस्ट्रल

7 अरब

82.2

LLAMA-2

13 अरब

80.5

LLAMA-2

7 अरब

यूरो

जेमा

7 अरब

51.8

जेमा

2बी

यूरो

मिस्ट्रल

7 अरब

47.0*

LLAMA-2

13 अरब

50.3

LLAMA-2

7 अरब

48.3

जेमा

7 अरब

83.2

जेमा

2बी

यूरो

मिस्ट्रल

7 अरब

83.2*

LLAMA-2

13 अरब

81.7

LLAMA-2

7 अरब

77.4

जेमा

7 अरब

72.3

जेमा

2बी

75

मिस्ट्रल

7 अरब

74.2

LLAMA-2

13 अरब

72.8

LLAMA-2

7 अरब

79.2

जेमा

7 अरब

71.3

जेमा

2बी

75

मिस्ट्रल

7 अरब

66.3*

LLAMA-2

13 अरब

78 जीबी में से

LLAMA-2

7 अरब

यूरो

जेमा

7 अरब

यूरो

जेमा

2बी

47.8

मिस्ट्रल

7 अरब

52.2

LLAMA-2

13 अरब

57.0

LLAMA-2

7 अरब

58.6

जेमा

7 अरब

81.5

जेमा

2बी

73.2

मिस्ट्रल

7 अरब

80.5

LLAMA-2

13 अरब

77.3

LLAMA-2

7 अरब

75.2

जेमा

7 अरब

53.2

जेमा

2बी

42.06

मिस्ट्रल

7 अरब

यूरो

LLAMA-2

13 अरब

49.4

LLAMA-2

7 अरब

यूरो

जेमा

7 अरब

78 जीबी में से

जेमा

2बी

53.2

मिस्ट्रल

7 अरब

62.5

LLAMA-2

13 अरब

यूरो

LLAMA-2

7 अरब

72.1

जेमा

7 अरब

78 जीबी में से

जेमा

2बी

22.0

मिस्ट्रल

7 अरब

78 जीबी में से

LLAMA-2

13 अरब

78 जीबी में से

LLAMA-2

7 अरब

78 जीबी में से

जेमा

7 अरब

44.4

जेमा

2बी

78 जीबी में से

मिस्ट्रल

7 अरब

40.2*

LLAMA-2

13 अरब

78 जीबी में से

LLAMA-2

7 अरब

2,080

जेमा

7 अरब

46.4

जेमा

2बी

7.7

मिस्ट्रल

7 अरब

35.4*

LLAMA-2

13 अरब

28.7

LLAMA-2

7 अरब

78 जीबी में से

जेमा

7 अरब

78 जीबी में से

जेमा

2बी

78 जीबी में से

मिस्ट्रल

7 अरब

78 जीबी में से

LLAMA-2

13 अरब

3.9

LLAMA-2

7 अरब

2.5

जेमा

7 अरब

41.7

जेमा

2बी

78 जीबी में से

मिस्ट्रल

7 अरब

41.2*

LLAMA-2

13 अरब

78 जीबी में से

LLAMA-2

7 अरब

78 जीबी में से

जेमा

7 अरब

75

जेमा

2बी

78 जीबी में से

मिस्ट्रल

7 अरब

56.1*

LLAMA-2

13 अरब

7,594

LLAMA-2

7 अरब

78 जीबी में से

*अन्य तरीकों के साथ परफ़ॉर्मेंस की जानकारी के लिए तकनीकी रिपोर्ट देखें

ज़िम्मेदारी के साथ एआई डेवलप करना

डिज़ाइन के हिसाब से ज़िम्मेदारी

ध्यान से चुने गए डेटा के साथ-साथ सुरक्षा को ध्यान में रखते हुए, पहले से ट्रेनिंग दी गई है. Gemma मॉडल की मदद से, सुरक्षित और ज़िम्मेदार एआई डेवलप करने में मदद मिलती है.

असरदार और पारदर्शी तरीके से आकलन करना

हर तरह की समीक्षा और पारदर्शी रिपोर्टिंग से, मॉडल की सीमाओं के बारे में पता चलता है. इससे, इस्तेमाल के हर उदाहरण के लिए एक ज़िम्मेदार तरीका अपनाया जा सकता है.

ज़िम्मेदार तरीके से विकास करना

'ज़िम्मेदारी से जनरेटिव एआई टूलकिट', डेवलपर को ज़िम्मेदारी के साथ एआई इस्तेमाल करने के सबसे सही तरीकों को डिज़ाइन और लागू करने में मदद करता है.

Google Cloud का आइकॉन

Google Cloud के लिए ऑप्टिमाइज़ किया गया

Google Cloud पर मौजूद Gemma मॉडल की मदद से, Vertex AI के पूरी तरह से मैनेज किए जाने वाले टूल या GKE (जीकेई) के खुद से मैनेज किए जाने वाले टूल की मदद से, मॉडल को अपनी ज़रूरत के हिसाब से कस्टमाइज़ किया जा सकता है. साथ ही, इसे आसान और किफ़ायती एआई-ऑप्टिमाइज़ इन्फ़्रास्ट्रक्चर पर डिप्लॉय किया जा सकता है.

Google Cloud क्रेडिट की मदद से, शिक्षा से जुड़ी रिसर्च को बढ़ावा देना

अकैडमिक रिसर्च प्रोग्राम ने हाल ही में अपने आवेदन की अवधि पूरी की है. इसमें, जेम्मा मॉडल का इस्तेमाल करके, वैज्ञानिक खोज की सीमाओं को बढ़ाने में शोधकर्ताओं की मदद करने के लिए, Google Cloud क्रेडिट दिया गया. हमें इस पहल से मिले शानदार रिसर्च को देखने का बेसब्री से इंतज़ार है.

Google Cloud की मदद से, अपनी रिसर्च को बेहतर बनाने से जुड़े अवसरों के बारे में जानने के लिए, हमारे साथ बने रहें.

समुदाय में शामिल हों

एमएल मॉडल कम्यूनिटी के लोगों से जुड़ें, एक्सप्लोर करें, और अपनी जानकारी दूसरों के साथ शेयर करें.

एमएल इंजीनियर के लिए सबसे बढ़िया एआई असिस्टेंट बनाने में मुकाबला करें

Kaggle ने एक प्रतियोगिता को होस्ट किया है. इसमें, जेम्मा मॉडल इस्तेमाल करने का चुनौती भरा हिस्सा है, ताकि एमएल इंजीनियरिंग के टास्क के लिए, बेहतरीन एआई असिस्टेंट बनाई जा सकें. विजेताओं का एलान Google I/O पर किया जाएगा.

प्रतियोगिता में शामिल हों
कागल प्रतियोगिता की ट्रॉफ़ी