डिज़ाइन के हिसाब से ज़िम्मेदारी का आइकॉन

ज़िम्मेदारी के साथ डिज़ाइन करना

सुरक्षा से जुड़े बेहतरीन उपायों को शामिल करके, ये मॉडल चुनिंदा डेटासेट और ज़्यादा बेहतर बनाने की प्रोसेस की मदद से, एआई के भरोसेमंद और सही सलूशन उपलब्ध कराते हैं.

परफ़ॉर्मेंस का आइकॉन

साइज़ के हिसाब से परफ़ॉर्मेंस में अंतर

Gemma मॉडल, 2B, 7B, 9B, और 27B साइज़ में बेंचमार्क के बेहतर नतीजे देते हैं. साथ ही, कुछ बड़े ओपन मॉडल से भी बेहतर परफ़ॉर्म करते हैं.

फ़्रेमवर्क में बदलाव किया जा सकता है

ज़रूरत के हिसाब से डिप्लॉयमेंट

Keras, JAX, MediaPipe, PyTorch, Hugging Face वगैरह का इस्तेमाल करके, मोबाइल, वेब, और क्लाउड पर आसानी से डिप्लॉय करें.

Gemma 2 आज़माएं

बेहतर परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए फिर से डिज़ाइन किया गया Gemma 2, अलग-अलग हार्डवेयर पर तेज़ी से अनुमान लगाने के लिए ऑप्टिमाइज़ किया गया है.

पांच शॉट

एमएमएलयू

एमएमएलयू बेंचमार्क एक ऐसा टेस्ट है जो प्री-ट्रेनिंग के दौरान, लार्ज लैंग्वेज मॉडल के ज़रिए हासिल किए गए ज्ञान और समस्या हल करने की क्षमता का आकलन करता है.

25-शॉट

ARC-C

ARC-c मानदंड, ARC-e डेटासेट का ज़्यादा फ़ोकस किया गया सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनका जवाब, सामान्य (रिट्रीवल-आधारित और शब्द के साथ-साथ होने की संभावना) एल्गोरिदम ने गलत तरीके से दिया है.

पांच शॉट

GSM8K

GSM8K बेंचमार्क, भाषा मॉडल की उस क्षमता की जांच करता है जिससे वह स्कूल के लेवल के मैथ के सवालों को हल कर सकता है. इन सवालों को हल करने के लिए, अक्सर कई चरणों की ज़रूरत होती है.

3-5-शॉट

AGIEval

AGIEval बेंचमार्क, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल करके, भाषा मॉडल की सामान्य बुद्धि का टेस्ट करता है. ये परीक्षाएं, इंसान की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन की गई हैं.

तीन शॉट, COT

BBH

BBH (BIG-Bench Hard) बेंचमार्क, उन टास्क पर फ़ोकस करता है जो मौजूदा लैंग्वेज मॉडल के लिए मुश्किल माने जाते हैं. यह अलग-अलग तरह के डोमेन में, तर्क और समझने की क्षमता की जांच करता है.

तीन शॉट, F1

नीचे झुक जाएं

DROP, पढ़ने की समझ का एक मानदंड है. इसमें पैराग्राफ़ के बारे में अलग-अलग तरीके से सोचने की ज़रूरत होती है.

पांच शॉट

Winogrande

Winogrande बेंचमार्क, किसी भाषा मॉडल की क्षमता की जांच करता है. यह जांच यह पता लगाने के लिए की जाती है कि वह खाली जगहों को भरने वाले ऐसे टास्क को हल कर सकता है या नहीं जिनमें दो विकल्प होते हैं. इन टास्क को हल करने के लिए, सामान्य समझ की ज़रूरत होती है.

10-शॉट

HellaSwag

HellaSwag बेंचमार्क, किसी कहानी के सबसे लॉजिकल आखिर को चुनकर, सामान्य समझ की रीज़निंग को समझने और लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.

4-शॉट

MATH

MATH, किसी भाषा मॉडल की गणित के जटिल सवालों को हल करने की क्षमता का आकलन करता है. इसके लिए, रीज़निंग, कई चरणों में समस्या हल करने, और गणित के कॉन्सेप्ट को समझने की ज़रूरत होती है.

बिना उदाहरण वाला प्रॉम्प्ट

ARC-e

ARC-e बेंचमार्क, भाषा मॉडल की सवालों के जवाब देने की बेहतरीन क्षमताओं की जांच करता है. इसके लिए, यह ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल करता है.

बिना उदाहरण वाला प्रॉम्प्ट

PIQA

PIQA बेंचमार्क, किसी भाषा मॉडल की इस क्षमता की जांच करता है कि वह रोज़मर्रा के कामों के बारे में पूछे गए सवालों के जवाब देकर, सामान्य ज्ञान को समझ और लागू कर सकता है या नहीं.

बिना उदाहरण वाला प्रॉम्प्ट

SIQA

SIQA मानदंड, लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, यह आकलन करता है कि भाषा मॉडल, सामाजिक इंटरैक्शन और सामाजिक सामान्य समझ को कितना समझता है.

बिना उदाहरण वाला प्रॉम्प्ट

Boolq

BoolQ बेंचमार्क, भाषा के मॉडल की उस क्षमता की जांच करता है जिससे वह आम तौर पर पूछे जाने वाले 'हां/नहीं' सवालों के जवाब दे सकता है. साथ ही, यह मॉडल की उस क्षमता की भी जांच करता है जिससे वह असल ज़िंदगी में, सामान्य भाषा के अनुमान लगाने वाले टास्क को पूरा कर सकता है.

पांच शॉट

TriviaQA

TriviaQA बेंचमार्क, सवाल-जवाब-सबूत के ट्रिपल की मदद से, पढ़कर समझने की क्षमता की जांच करता है.

पांच शॉट

NQ

NQ (Natural Questions) बेंचमार्क, किसी भाषा मॉडल की इस क्षमता की जांच करता है कि वह Wikipedia के पूरे लेखों में जवाब ढूंढकर उन्हें समझ सकता है या नहीं. यह बेंचमार्क, असल ज़िंदगी में सवाल-जवाब के उदाहरणों को सिम्युलेट करता है.

pass@1

HumanEval

HumanEval बेंचमार्क, किसी भाषा मॉडल की कोड जनरेशन क्षमताओं की जांच करता है. इसके लिए, यह जांच की जाती है कि उसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट पास करते हैं या नहीं.

तीन शॉट

MBPP

MBPP बेंचमार्क, किसी भाषा मॉडल की Python प्रोग्रामिंग से जुड़ी बुनियादी समस्याओं को हल करने की क्षमता की जांच करता है. यह जांच, प्रोग्रामिंग के बुनियादी सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर फ़ोकस करती है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 अरब

42.3

Gemma 2

2.6 अरब

51.3

Mistral

7B

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9B

71.3

Gemma 2

27B

75.2

Gemma 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9B

68.4

Gemma 2

27B

71.4

Gemma 1

2.5 अरब

15.1

Gemma 2

2.6 अरब

23.9

Mistral

7B

39.6

LLAMA 3

8B

45.7

Gemma 1

7B

51.8

Gemma 2

9B

68.6

Gemma 2

27B

74.0

Gemma 1

2.5 अरब

24.2

Gemma 2

2.6 अरब

30.6

Mistral

7B

44.0

LLAMA 3

8B

45.9

Gemma 1

7B

44.9

Gemma 2

9B

52.8

Gemma 2

27B

55.1

Gemma 1

2.5 अरब

35.2

Gemma 2

2.6 अरब

41.9

Mistral

7B

56.0

LLAMA 3

8B

61.1

Gemma 1

7B

59.0

Gemma 2

9B

68.2

Gemma 2

27B

74.9

Gemma 1

2.5 अरब

48.5

Gemma 2

2.6 अरब

52.0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7B

56.3

Gemma 2

9B

69.4

Gemma 2

27B

74.2

Gemma 1

2.5 अरब

66.8

Gemma 2

2.6 अरब

70.9

Mistral

7B

78.5

LLAMA 3

8B

76.1

Gemma 1

7B

79.0

Gemma 2

9B

80.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

71.7

Gemma 2

2.6 अरब

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9B

81.9

Gemma 2

27B

86.4

Gemma 1

2.5 अरब

11.8

Gemma 2

2.6 अरब

15.0

Mistral

7B

12.7

Gemma 1

7B

24.3

Gemma 2

9B

36.6

Gemma 2

27B

42.3

Gemma 1

2.5 अरब

73.2

Gemma 2

2.6 अरब

80.1

Mistral

7B

80.5

Gemma 1

7B

81.5

Gemma 2

9B

88.0

Gemma 2

27B

88.6

Gemma 1

2.5 अरब

77.3

Gemma 2

2.6 अरब

77.8

Mistral

7B

82.2

Gemma 1

7B

81.2

Gemma 2

9B

81.7

Gemma 2

27B

83.2

Gemma 1

2.5 अरब

49.7

Gemma 2

2.6 अरब

51.9

Mistral

7B

47.0

Gemma 1

7B

51.8

Gemma 2

9B

53.4

Gemma 2

27B

53.7

Gemma 1

2.5 अरब

69.4

Gemma 2

2.6 अरब

72.5

Mistral

7B

83.2

Gemma 1

7B

83.2

Gemma 2

9B

84.2

Gemma 2

27B

84.8

Gemma 1

2.5 अरब

53.2

Gemma 2

2.6 अरब

59.4

Mistral

7B

62.5

Gemma 1

7B

63.4

Gemma 2

9B

76.6

Gemma 2

27B

83.7

Gemma 1

2.5 अरब

12.5

Gemma 2

2.6 अरब

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9B

29.2

Gemma 2

27B

34.5

Gemma 1

2.5 अरब

22.0

Gemma 2

2.6 अरब

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9B

40.2

Gemma 2

27B

51.8

Gemma 1

2.5 अरब

29.2

Gemma 2

2.6 अरब

29.6

Mistral

7B

40.2

Gemma 1

7B

44.4

Gemma 2

9B

52.4

Gemma 2

27B

62.6

*ये पहले से ट्रेन किए गए मॉडल के लिए बेंचमार्क हैं. अन्य तरीकों से परफ़ॉर्मेंस के बारे में जानकारी के लिए, तकनीकी रिपोर्ट देखें.

PaliGemma 2 नया

PaliGemma 2, Gemma 2 लैंग्वेज मॉडल में आसानी से ट्यून की जा सकने वाली विज़न की सुविधाएं जोड़ता है. इससे, टेक्स्ट और इमेज को समझने वाले कई तरह के ऐप्लिकेशन काम कर पाते हैं.

DataGemma

DataGemma, ऐसे पहले ओपन मॉडल हैं जिन्हें एलएलएम को Google के Data Commons से इकट्ठा किए गए ज़्यादा से ज़्यादा रीयल-वर्ल्ड डेटा से कनेक्ट करने के लिए डिज़ाइन किया गया है.

Gemma का स्कोप

Gemma Scope, शोधकर्ताओं को हमारे Gemma 2 मॉडल की फ़ैसला लेने की प्रोसेस के बारे में पूरी जानकारी देता है.

मॉडल डिप्लॉय करना

डिप्लॉयमेंट का टारगेट चुनना

मोबाइल आइकॉन डिप्लॉय करनामोबाइल

Google के एआई एज (डिवाइस पर मौजूद एआई) की मदद से, डिवाइस पर एआई मॉडल को डिप्लॉय करना

कम इंतज़ार और ऑफ़लाइन काम करने की सुविधा के लिए, सीधे डिवाइसों पर डिप्लॉय करें. यह उन ऐप्लिकेशन के लिए सबसे सही है जिन्हें रीयल-टाइम में जवाब देने और निजता की ज़रूरत होती है. जैसे, मोबाइल ऐप्लिकेशन, IoT डिवाइस, और एम्बेड किए गए सिस्टम.

वेब आइकॉनवेब

वेब ऐप्लिकेशन में आसानी से इंटिग्रेट किया जा सकता है

एआई की बेहतर सुविधाओं की मदद से, अपनी वेबसाइटों और वेब सेवाओं को बेहतर बनाएं. इन सुविधाओं की मदद से, इंटरैक्टिव सुविधाएं, उपयोगकर्ताओं के हिसाब से कॉन्टेंट, और बेहतर ऑटोमेशन की सुविधाएं चालू की जा सकती हैं.

बादल का आइकॉनक्लाउड

क्लाउड इन्फ़्रास्ट्रक्चर की मदद से, आसानी से स्केल करें

बड़े पैमाने पर डिप्लॉयमेंट, ज़्यादा काम करने वाले वर्कलोड, और एआई के जटिल ऐप्लिकेशन को मैनेज करने के लिए, क्लाउड के स्केले करने की सुविधा और सुविधाओं का फ़ायदा लें.

ग्लोबल कम्यूनिकेशन को अनलॉक करना

हमारे ग्लोबल Kaggle कॉम्पिटीशन में शामिल हों. किसी खास भाषा या संस्कृति के यूनीक पहलू के लिए, Gemma मॉडल के वैरिएंट बनाना