Gemma के ओपन मॉडल

यह लाइटवेट और बेहतरीन ओपन मॉडल है. इन्हें Gemini मॉडल बनाने में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है

ज़िम्मेदार डिज़ाइन से जुड़े आइकॉन

डिज़ाइन के हिसाब से ज़िम्मेदार

सुरक्षा के बड़े उपायों को शामिल करके, ये मॉडल चुनिंदा डेटासेट और बेहतर ट्यूनिंग के ज़रिए, एआई (AI) के बेहतर और भरोसेमंद समाधान पाने में मदद करते हैं.

परफ़ॉर्मेंस का आइकॉन

साइज़ के हिसाब से परफ़ॉर्मेंस में अंतर

Gemma मॉडल, 2B, 7B, 9B, और 27B साइज़ में बेंचमार्क के बेहतर नतीजे देते हैं. साथ ही, कुछ बड़े ओपन मॉडल की परफ़ॉर्मेंस को भी पीछे छोड़ देते हैं.

फ़्रेमवर्क में बदलाव किया जा सकता है

फ़्रेमवर्क सुविधाजनक

Keras 3.0 के साथ, JAX, TensorFlow, और PyTorch के साथ आसानी से काम करने का आनंद लें. इससे आपको अपने टास्क के हिसाब से आसानी से फ़्रेमवर्क चुनने और उनमें बदलाव करने में मदद मिलेगी.

पेश है
Gemma 2

शानदार परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए, Gemma 2 को फिर से डिज़ाइन किया गया है. यह अलग-अलग तरह के हार्डवेयर के लिए, तेज़ी से अनुमान लगाने की सुविधा को ऑप्टिमाइज़ करता है.

5-शॉट

MMLU

एमएमएलयू बेंचमार्क एक ऐसा टेस्ट है जो प्री-ट्रेनिंग के दौरान, लार्ज लैंग्वेज मॉडल के ज़रिए हासिल किए गए ज्ञान और समस्या हल करने की क्षमता का आकलन करता है.

25-शॉट

ARC-C

ARC-c बेंचमार्क, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनके जवाब सामान्य (डेटा पाने का आधार और शब्द के साथ आने) वाले एल्गोरिदम का गलत तरीके से दिए गए हैं.

5-shot

जीएसएम8के

GSM8K बेंचमार्क, ग्रेड-स्कूल के गणित के सवालों को हल करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसमें अक्सर रीज़निंग के कई चरणों की ज़रूरत होती है.

3-5-शॉट

AGIEval

एजीआईईवल बेंचमार्क में, भाषा के मॉडल के सामान्य इंटेलिजेंस की जांच की जाती है. इसके लिए, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल किया जाता है, जो इंसानों की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन किए गए हैं.

3-शॉट, CoT

BBH

BBH (BIG-Bench Hard) बेंचमार्क, उन टास्क पर फ़ोकस करता है जो मौजूदा लैंग्वेज मॉडल के लिए मुश्किल माने जाते हैं. यह अलग-अलग तरह के डोमेन में, तर्क और समझने की क्षमता की जांच करता है.

तीन शॉट, F1

नीचे झुक जाएं

DROP, पढ़ने और समझने की क्षमता का मानदंड है. इसके लिए पैराग्राफ़ के तौर पर, अलग-अलग तर्क की ज़रूरत होती है.

5-शॉट

विनोग्रांडे

Winogrande बेंचमार्क, किसी भाषा मॉडल की क्षमता की जांच करता है. यह जांच यह पता लगाने के लिए की जाती है कि वह खाली जगहों को भरने वाले ऐसे टास्क को हल कर सकता है या नहीं जिनमें दो विकल्प होते हैं. इन टास्क को हल करने के लिए, सामान्य समझ की ज़रूरत होती है.

10-शॉट

HellaSwag

HellaSwag बेंचमार्क किसी कहानी के सबसे तार्किक अंत को चुनकर, सामान्य ज्ञान से जुड़े तर्क को समझने और उसे लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.

4-शॉट

MATH

MATH, किसी भाषा मॉडल की गणित के जटिल सवालों को हल करने की क्षमता का आकलन करता है. इसके लिए, रीज़निंग, कई चरणों में समस्या हल करने, और गणित के कॉन्सेप्ट को समझने की ज़रूरत होती है.

0-शॉट

ARC-e

ARC-e बेंचमार्क, भाषा मॉडल की सवालों के जवाब देने की बेहतरीन क्षमताओं की जांच करता है. इसके लिए, यह ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल करता है.

0-शॉट

PIQA

PIQA बेंचमार्क, किसी भाषा मॉडल की इस क्षमता की जांच करता है कि वह रोज़मर्रा के कामों के बारे में पूछे गए सवालों के जवाब देकर, सामान्य ज्ञान को समझ और लागू कर सकता है या नहीं.

0-शॉट

SIQA

SIQA मानदंड, लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, यह आकलन करता है कि भाषा मॉडल, सामाजिक इंटरैक्शन और सामाजिक सामान्य समझ को कितना समझता है.

0-शॉट

बूल्क

BoolQ बेंचमार्क, स्वाभाविक रूप से हां या नहीं में जवाब देने की भाषा के मॉडल की क्षमता को परखता है. साथ ही, इस मॉडल की मदद से असल दुनिया में प्राकृतिक भाषा का अनुमान लगाने के टास्क कर पाता है.

5-shot

TriviaQA

ट्रिवियाQA बेंचमार्क तीन बार सवालों के जवाब के साथ, समझने की क्षमता की जांच करता है.

5-शॉट

NQ

एनक्यू (नैचुरल सवाल) मानदंड की मदद से, विकिपीडिया के सभी लेखों में जवाब ढूंढने और समझने की भाषा मॉडल की क्षमता की जांच की जाती है. साथ ही, यह जांच की जाती है कि असल दुनिया में किस तरह के सवाल पूछे जाते हैं और इसका जवाब कैसे दिया जाता है.

पास@1

HumanEval

HumanEval बेंचमार्क, किसी भाषा मॉडल की कोड जनरेशन क्षमताओं की जांच करता है. इसके लिए, यह जांच की जाती है कि उसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट पास करते हैं या नहीं.

3-शॉट

MBPP

एमबीपीपी बेंचमार्क की मदद से, Python प्रोग्रामिंग से जुड़ी बुनियादी समस्याओं को हल करने में भाषा मॉडल की क्षमता की जांच की जाती है. इसमें, प्रोग्रामिंग के बुनियादी सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर ध्यान दिया जाता है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

जेमा 1

2.5 अरब

42.3

Gemma 2

2.6 अरब

51.3

मिस्ट्रल

7 अरब

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9B

71.3

Gemma 2

27 अरब

75.2

जेमा 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

55.4

मिस्ट्रल

7 अरब

60.5

LLAMA 3

8B

59.2

Gemma 1

7 अरब

61.1

Gemma 2

9B

68.4

Gemma 2

27 अरब

71.4

जेमा 1

2.5 अरब

15.1

Gemma 2

2.6 अरब

23.9

Mistral

7 अरब

39.6

LLAMA 3

8B

45.7

जेमा 1

7 अरब

51.8

Gemma 2

9 अरब

68.6

Gemma 2

27 अरब

74.0

जेमा 1

2.5 अरब

24.2

Gemma 2

2.6 अरब

30.6

Mistral

7 अरब

44.0

लामा 3

8B

45.9

जेमा 1

7 अरब

44.9

Gemma 2

9B

52.8

Gemma 2

27 अरब

55.1

Gemma 1

2.5 अरब

35.2

Gemma 2

2.6 अरब

41.9

Mistral

7 अरब

56.0

LLAMA 3

8B

61.1

Gemma 1

7 अरब

59.0

Gemma 2

9 अरब

68.2

Gemma 2

27 अरब

74.9

Gemma 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

52.0

मिस्ट्रल

7B

63.8

लामा 3

8 अरब

58.4

जेमा 1

7 अरब

56.3

Gemma 2

9B

69.4

Gemma 2

27B

74.2

जेमा 1

2.5 अरब

66.8

Gemma 2

2.6 अरब

70.9

Mistral

7 अरब

78.5

लामा 3

8 अरब

76.1

जेमा 1

7B

79.0

Gemma 2

9 अरब

80.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

71.7

Gemma 2

2.6 अरब

73.0

Mistral

7 अरब

83.0

लामा 3

8 अरब

82.0

Gemma 1

7B

82.3

Gemma 2

9B

81.9

Gemma 2

27 अरब

86.4

Gemma 1

2.5 अरब

11.8

Gemma 2

2.6 अरब

15.0

Mistral

7B

12.7

जेमा 1

7B

24.3

Gemma 2

9 अरब

36.6

Gemma 2

27 अरब

42.3

जेमा 1

2.5 अरब

73.2

Gemma 2

2.6 अरब

80.1

Mistral

7 अरब

80.5

Gemma 1

7 अरब

81.5

Gemma 2

9B

88.0

Gemma 2

27B

88.6

Gemma 1

2.5 अरब

77.3

Gemma 2

2.6 अरब

77.8

Mistral

7 अरब

82.2

Gemma 1

7 अरब

81.2

Gemma 2

9B

81.7

Gemma 2

27 अरब

83.2

Gemma 1

2.5 अरब

49.7

Gemma 2

2.6 अरब

51.9

मिस्ट्रल

7B

47.0

जेमा 1

7 अरब

51.8

Gemma 2

9B

53.4

Gemma 2

27 अरब

53.7

Gemma 1

2.5 अरब

69.4

Gemma 2

2.6 अरब

72.5

Mistral

7B

83.2

Gemma 1

7 अरब

83.2

Gemma 2

9 अरब

84.2

Gemma 2

27B

84.8

जेमा 1

2.5 अरब

53.2

Gemma 2

2.6 अरब

59.4

Mistral

7 अरब

62.5

जेमा 1

7B

63.4

Gemma 2

9B

76.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

12.5

Gemma 2

2.6 अरब

16.7

मिस्ट्रल

7 अरब

23.2

जेमा 1

7B

23.0

Gemma 2

9 अरब

29.2

Gemma 2

27 अरब

34.5

Gemma 1

2.5 अरब

22.0

Gemma 2

2.6 अरब

17.7

Mistral

7 अरब

26.2

जेमा 1

7B

32.3

Gemma 2

9B

40.2

Gemma 2

27 अरब

51.8

Gemma 1

2.5 अरब

29.2

Gemma 2

2.6 अरब

29.6

Mistral

7 अरब

40.2

Gemma 1

7 अरब

44.4

Gemma 2

9B

52.4

Gemma 2

27B

62.6

*ये पहले से ट्रेन किए गए मॉडल के मानदंड हैं. दूसरे तरीकों के साथ परफ़ॉर्मेंस की जानकारी पाने के लिए तकनीकी रिपोर्ट देखें.

Gemma मॉडल फ़ैमिली

नई रिलीज़

Gemma 2

Gemma 2 में तीन नए, बेहतर, और असरदार मॉडल उपलब्ध हैं. ये मॉडल 2, 9, और 27 अरब पैरामीटर साइज़ में उपलब्ध हैं. इन सभी मॉडल में, सुरक्षा से जुड़ी बेहतर सुविधाएं पहले से मौजूद हैं.

नई रिलीज़

DataGemma

DataGemma, ऐसे पहले ओपन मॉडल हैं जिन्हें एलएलएम को Google के Data Commons से इकट्ठा किए गए ज़्यादा से ज़्यादा रीयल-वर्ल्ड डेटा से कनेक्ट करने के लिए डिज़ाइन किया गया है.

जेमा 1

जेमा मॉडल, लाइटवेट, टेक्स्ट-टू-टेक्स्ट, और सिर्फ़ डिकोडर वाले लार्ज लैंग्वेज मॉडल हैं. इन्हें टेक्स्ट, कोड, और गणित के कॉन्टेंट के बड़े डेटासेट की मदद से, नैचुरल लैंग्वेज प्रोसेसिंग से जुड़े कई कामों के लिए ट्रेनिंग दी गई है.

RecurrentGemma

RecurrentGemma, तकनीकी तौर पर एक अलग मॉडल है. यह मेमोरी की क्षमता को बेहतर बनाने के लिए, बार-बार इस्तेमाल होने वाले न्यूरल नेटवर्क और स्थानीय ध्यान का फ़ायदा उठाता है.

PaliGemma

PaliGemma, PaLI-3 से प्रेरित एक ओपन विज़न-लैंग्वेज मॉडल है. इसमें SigLIP और Gemma का फ़ायदा लिया गया है. इसे कई तरह के विज़न-लैंग्वेज टास्क के लिए ट्रांसफ़र करने के मकसद से, एक बेहतर मॉडल के तौर पर डिज़ाइन किया गया है.

CodeGemma

पहले से ट्रेन किए गए हमारे मूल Gemma मॉडल की बुनियाद का इस्तेमाल करके, CodeGemma आपके लोकल कंप्यूटर के हिसाब से साइज़ में कोड जनरेट करने और उसे पूरा करने की बेहतरीन सुविधाएं उपलब्ध कराता है.

डेवलपर के लिए आसानी से सिखाने वाली गाइड

पार्टनर के लिए आसानी से सीखें

Gemma Cookbook

PaliGemma की मदद से इमेज के कैप्शन बनाने, CodeGemma की मदद से कोड जनरेट करने, और बेहतर बनाए गए Gemma मॉडल की मदद से चैटबॉट बनाने जैसे कामों के लिए, Gemma की क्षमता और अलग-अलग कामों में इस्तेमाल करने के उदाहरणों का कलेक्शन एक्सप्लोर करें.

ज़िम्मेदारी के साथ एआई का डेवलपमेंट

डिज़ाइन के हिसाब से ज़िम्मेदारी

गेम को बहुत ध्यान से चुने गए डेटा के आधार पर ट्रेनिंग दी जाती है. साथ ही, बेहतर सुरक्षा के लिए इसे तैयार किया जाता है. इससे Gemma मॉडल की मदद से, एआई को सुरक्षित और भरोसेमंद बनाने में मदद मिलती है.

मज़बूत और पारदर्शी आकलन

हर इस्तेमाल के उदाहरण के लिए ज़िम्मेदार तरीके अपनाने के लिए, मॉडल की सीमाओं को ज़ाहिर करने के लिए, पूरी तरह से जांच की जाती है और पारदर्शी रिपोर्टिंग की जाती है.

ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना

ज़िम्मेदार जनरेटिव एआई टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई के इस्तेमाल के सबसे सही तरीके डिज़ाइन और लागू करने में मदद करता है.

Google Cloud का आइकॉन

Google Cloud के लिए ऑप्टिमाइज़ किया गया

Google Cloud पर Gemini मॉडल की मदद से, Vertex AI के पूरी तरह से मैनेज किए जाने वाले टूल या GKE के खुद मैनेज किए जाने वाले विकल्प का इस्तेमाल करके, मॉडल को अपनी ज़रूरतों के हिसाब से ज़्यादा बेहतर बनाया जा सकता है. साथ ही, इसे एआई के लिए ऑप्टिमाइज़ किए गए, सुविधाजनक, और किफ़ायती इन्फ़्रास्ट्रक्चर पर डिप्लॉय किया जा सकता है.

Google Cloud क्रेडिट की मदद से शिक्षा से जुड़ी रिसर्च को बढ़ावा देना

अकैडमिक रिसर्च प्रोग्राम में आवेदन करने की अवधि हाल ही में खत्म हुई है. इसके तहत, रिसर्च करने वाले लोगों को Google Cloud क्रेडिट दिया जाता है, ताकि वे जेमा मॉडल का इस्तेमाल करके, विज्ञान की नई खोजों पर काम कर सकें. हमें इस पहल से होने वाली नई खोजों को देखने का इंतज़ार रहेगा.

Google Cloud की मदद से अपनी रिसर्च को बेहतर बनाने के लिए, आने वाले समय में मिलने वाले अवसरों के लिए हमारे साथ बने रहें.

कम्यूनिटी से जुड़ें

मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.