जेमा ओपन मॉडल

यह लाइटवेट और बेहतरीन ओपन मॉडल है. इन्हें Gemini मॉडल बनाने में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है

Gemma मॉडल का लोगो

डिज़ाइन के हिसाब से ज़िम्मेदार

सुरक्षा के बड़े उपायों को शामिल करके, ये मॉडल चुनिंदा डेटासेट और बेहतर ट्यूनिंग के ज़रिए, एआई (AI) के बेहतर और भरोसेमंद समाधान पाने में मदद करते हैं.

Gemma मॉडल का लोगो

आकार के हिसाब से बेजोड़ परफ़ॉर्मेंस

Gemma मॉडल अपने 2B और 7B साइज़ में बेहतरीन मानदंड पूरे करते हैं. भले ही, वे बड़े ओपन मॉडल की परफ़ॉर्मेंस से बेहतर परफ़ॉर्म करते हों.

Gemma मॉडल का लोगो

फ़्रेमवर्क सुविधाजनक

Keras 3.0 के साथ, JAX, TensorFlow, और PyTorch के साथ आसानी से काम करने का आनंद लें. इससे आपको अपने टास्क के हिसाब से आसानी से फ़्रेमवर्क चुनने और उनमें बदलाव करने में मदद मिलेगी.

Gemma मॉडल के वैरिएंट

डेवलपर के लिए आसानी से सिखाने वाली गाइड

पार्टनर के लिए आसानी से सीखें

मानदंड

Gemma ने लामा 2 और मिस्ट्रल 7B जैसे लोकप्रिय मॉडल की तुलना में, बेहतरीन साइज़ की परफ़ॉर्मेंस के लिए एक नया बार सेट किया है.

5-शॉट, टॉप-1

एमएमएलयू

MMLU मानदंड एक ऐसा टेस्ट है जिससे पता चलता है कि प्री-ट्रेनिंग के दौरान, बड़े लैंग्वेज मॉडल ने कितनी जानकारी हासिल की है और समस्या का हल निकालने की कितनी क्षमता है.

0-शॉट

HellaSwag

HellaSwag बेंचमार्क किसी कहानी के सबसे तार्किक अंत को चुनकर, सामान्य ज्ञान से जुड़े तर्क को समझने और उसे लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.

0-शॉट

पीआईक्यूए

PIQA बेंचमार्क की मदद से, रोज़मर्रा की शारीरिक बातचीत से जुड़े सवालों के जवाब देकर, भाषा के मॉडल की शारीरिक सामान्य ज्ञान को समझने और उसे लागू करने की क्षमता को परखा जाता है.

0-शॉट

एसआईक्यूए

SIQA बेंचमार्क लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, किसी भाषा के मॉडल की सामाजिक इंटरैक्शन और सामाजिक आम समझ का आकलन करता है.

0-शॉट

बूल्क

BoolQ बेंचमार्क, हां या नहीं में जवाब देने के लिए स्वाभाविक रूप से जनरेट होने वाले (बिना सवाल वाली और सीमित सेटिंग में जनरेट किए गए) भाषा मॉडल की क्षमता का परीक्षण करता है. इससे मॉडल की असल दुनिया की प्राकृतिक भाषा का अनुमान लगाने के टास्क करने की क्षमता की जांच की जाती है.

आंशिक स्कोर

विनोग्रांडे

विनोग्रांडे बेंचमार्क, बाइनरी विकल्पों की मदद से मुश्किल भरे कामों को पूरा करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसके लिए सामान्य सामान्य सामान्य तर्क की ज़रूरत होती है.

7-शॉट

सीक्यूए

CQA का मानदंड, कई विकल्पों वाले सवालों के जवाब देने के लिए लैंग्वेज मॉडल की परफ़ॉर्मेंस का आकलन करता है. इसके लिए, अलग-अलग तरह के सामान्य ज्ञान की ज़रूरत होती है.

ओबीक्यूए

OBQA मानदंड की मदद से यह आकलन किया जाता है कि लैंग्वेज मॉडल, सवालों के बेहतर जवाब दे सकता है या नहीं. इसके लिए, कई चरणों वाली रीज़निंग, सामान्य ज्ञान, और टेक्स्ट समझने की क्षमता का इस्तेमाल किया जाता है. इस मॉडल को ओपन बुक की परीक्षा के बाद तैयार किया जाता है.

एआरसी-ई

ARC-e बेंचमार्क की टेक्नोलॉजी, भाषा से जुड़े ऐडवांस लेवल के सवालों के जवाब देने के ऐडवांस कौशल की जांच करती है. इसके लिए, ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल किया जाता है.

एआरसी-सी

ARC-c बेंचमार्क, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनके जवाब सामान्य (डेटा पाने का आधार और शब्द के साथ आने) वाले एल्गोरिदम का गलत तरीके से दिए गए हैं.

5-शॉट

TriviaQA

ट्रिवियाQA बेंचमार्क तीन बार सवाल-जवाब के साथ, पढ़ने और समझने की क्षमता की जांच करता है.

पास@1

HumanEval

HumanEval बेंचमार्क, लैंग्वेज मॉडल के कोड जनरेट करने की क्षमताओं की जांच करता है. इसके लिए, यह आकलन किया जाता है कि इसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट को पास करते हैं या नहीं.

3-शॉट

एमबीपीपी

MBPP मानदंड, Python प्रोग्रामिंग की बुनियादी समस्याओं को हल करने में भाषा मॉडल की क्षमता की जांच करता है. इसमें बुनियादी प्रोग्रामिंग सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर ध्यान दिया जाता है.

maj@1

जीएसएम8के

GSM8K बेंचमार्क, ग्रेड-स्कूल के गणित के सवालों को हल करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसमें अक्सर रीज़निंग के कई चरणों की ज़रूरत होती है.

4-शॉट

MATH

MATH बेंचमार्क, गणित के जटिल शब्द सवालों को हल करने में भाषा के मॉडल की क्षमता का आकलन करता है. इसमें तर्क के साथ, कई चरणों में सवाल हल करना, और गणित के सिद्धांतों को समझना ज़रूरी होता है.

AGIEval

एजीआईईवल बेंचमार्क में, भाषा के मॉडल के सामान्य इंटेलिजेंस की जांच की जाती है. इसके लिए, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल किया जाता है. इन सवालों को, इंसान की बौद्धिक क्षमताओं (कॉलेज की प्रवेश परीक्षा, कानून परीक्षा वगैरह) का आकलन करने के लिए डिज़ाइन किया जाता है.

बीबीएच

BBH (बिग-बेंच हार्ड) बेंचमार्क, उन कामों पर फ़ोकस करता है जो भाषा के मौजूदा मॉडल की क्षमताओं से परे माने जाते हैं. साथ ही, इसमें अलग-अलग रीज़निंग और समझ वाले डोमेन की सीमाओं की जांच की जाती है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

जेमा

7बी

64.3

जेमा

2बी

42.3

मिस्ट्रल

7बी

62.5

LLAMA-2

13बी

54.8

LLAMA-2

7बी

45.3

जेमा

7बी

81.2

जेमा

2बी

71.4

मिस्ट्रल

7बी

81.0

LLAMA-2

13बी

80.7

LLAMA-2

7बी

77.2

जेमा

7बी

81.2

जेमा

2बी

77.3

मिस्ट्रल

7बी

82.2

LLAMA-2

13बी

80.5

LLAMA-2

7बी

78.8

जेमा

7बी

51.8

जेमा

2बी

49.7

मिस्ट्रल

7बी

47.0*

LLAMA-2

13बी

50.3

LLAMA-2

7बी

48.3

जेमा

7बी

83.2

जेमा

2बी

69.42

मिस्ट्रल

7बी

83.2*

LLAMA-2

13बी

81.7

LLAMA-2

7बी

77.4

जेमा

7बी

72.3

जेमा

2बी

65.4

मिस्ट्रल

7बी

74.2

LLAMA-2

13बी

72.8

LLAMA-2

7बी

69.2

जेमा

7बी

71.3

जेमा

2बी

65.3

मिस्ट्रल

7बी

66.3*

LLAMA-2

13बी

67.3

LLAMA-2

7बी

57.8

जेमा

7बी

52.8

जेमा

2बी

47.8

मिस्ट्रल

7बी

52.2

LLAMA-2

13बी

57.0

LLAMA-2

7बी

58.6

जेमा

7बी

81.5

जेमा

2बी

73.2

मिस्ट्रल

7बी

80.5

LLAMA-2

13बी

77.3

LLAMA-2

7बी

75.2

जेमा

7बी

53.2

जेमा

2बी

42.06

मिस्ट्रल

7बी

54.9

LLAMA-2

13बी

49.4

LLAMA-2

7बी

45.9

जेमा

7बी

63.4

जेमा

2बी

53.2

मिस्ट्रल

7बी

62.5

LLAMA-2

13बी

79.6

LLAMA-2

7बी

72.1

जेमा

7बी

32.3

जेमा

2बी

22.0

मिस्ट्रल

7बी

26.2

LLAMA-2

13बी

18.3

LLAMA-2

7बी

12.8

जेमा

7बी

44.4

जेमा

2बी

29.2

मिस्ट्रल

7बी

40.2*

LLAMA-2

13बी

30.6

LLAMA-2

7बी

20.8

जेमा

7बी

46.4

जेमा

2बी

17.7

मिस्ट्रल

7बी

35.4*

LLAMA-2

13बी

28.7

LLAMA-2

7बी

14.6

जेमा

7बी

24.3

जेमा

2बी

11.8

मिस्ट्रल

7बी

12.7

LLAMA-2

13बी

3.9

LLAMA-2

7बी

2.5

जेमा

7बी

41.7

जेमा

2बी

24.2

मिस्ट्रल

7बी

41.2*

LLAMA-2

13बी

39.1

LLAMA-2

7बी

29.3

जेमा

7बी

55.1

जेमा

2बी

35.2

मिस्ट्रल

7बी

56.1*

LLAMA-2

13बी

39.4

LLAMA-2

7बी

32.6

*अन्य तरीकों के साथ परफ़ॉर्मेंस की जानकारी के लिए तकनीकी रिपोर्ट देखें

Gemma को आज ही ऐक्सेस करें

Gemma के मॉडल आपके सभी पसंदीदा मॉडल हब में उपलब्ध हैं.

ज़िम्मेदार एआई डेवलपमेंट

डिज़ाइन के हिसाब से ज़िम्मेदारी

गेम को बहुत ध्यान से चुने गए डेटा के आधार पर ट्रेनिंग दी जाती है. साथ ही, बेहतर सुरक्षा के लिए इसे तैयार किया जाता है. इससे Gemma मॉडल की मदद से, एआई को सुरक्षित और भरोसेमंद बनाने में मदद मिलती है.

मज़बूत और पारदर्शी आकलन

बेहतर आकलन और पारदर्शी रिपोर्टिंग से, मॉडल की सीमाओं के बारे में पता चलता है, ताकि इस्तेमाल के हर उदाहरण के लिए ज़िम्मेदार तरीका अपनाया जा सके.

ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना

ज़िम्मेदार जनरेटिव एआई टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई के इस्तेमाल के सबसे सही तरीके डिज़ाइन और लागू करने में मदद करता है.

Google Cloud का आइकॉन

Google Cloud के लिए ऑप्टिमाइज़ किया गया

Google Cloud पर Gemma मॉडल की मदद से, मॉडल को अपनी ज़रूरत के हिसाब से कस्टमाइज़ किया जा सकता है. इसके लिए, Vertex AI के पूरी तरह से मैनेज किए गए टूल या GKE के खुद से मैनेज होने वाले टूल का इस्तेमाल किया जा सकता है. साथ ही, इसे ज़रूरत के हिसाब से और कम खर्च में एआई को ऑप्टिमाइज़ करने वाले इन्फ़्रास्ट्रक्चर के लिए डिप्लॉय किया जा सकता है.

Google Cloud क्रेडिट की मदद से शिक्षा से जुड़ी रिसर्च को बढ़ावा देना

अकैडमिक रिसर्च प्रोग्राम में आवेदन करने की अवधि हाल ही में खत्म हुई है. इसके तहत, रिसर्च करने वाले लोगों को Google Cloud क्रेडिट दिया जाता है, ताकि वे जेमा मॉडल का इस्तेमाल करके, वैज्ञानिक खोजों को बढ़ावा देने में मदद कर सकें. हम इस पहल से होने वाले अभूतपूर्व शोध को देखने के लिए उत्साहित हैं.

आने वाले समय में, Google Cloud की मदद से अपनी रिसर्च को बेहतर बनाने से जुड़े अवसरों के बारे में जानने के लिए हमारे साथ बने रहें.

समुदाय में शामिल हों

मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.