نماذج Gemma المفتوحة

مجموعة من النماذج الخفيفة والعصرية المفتوحة التي تم إنشاؤها من الأبحاث والتكنولوجيا نفسها المستخدمة في إنشاء نماذج Gemini

رمز التصميم بمسؤولية

مسؤولية التصميم

تتضمّن هذه النماذج تدابير سلامة شاملة، وتساعد في ضمان حلول الذكاء الاصطناعي المسؤولة والموثوقة من خلال مجموعات بيانات منظَّمة وأدوات تدقيق دقيقة.

رمز أداء غير مطابق

أداء غير مطابق من حيث الحجم

تحقّق نماذج Gemma نتائج قياس أداء استثنائية بأحجام 2B و7B و9B و27B، كما أنّها تتفوق في أدائها على بعض النماذج المفتوحة الأكبر حجمًا.

مرونة في إطار العمل

مرونة في إطار العمل

مع الإصدار 3.0 من Keras، يمكنك الاستفادة من توافق سلس مع JAX وTensorFlow وPyTorch، ما يتيح لك اختيار أطر العمل وتبديلها بسهولة بناءً على مهمتك.

نقدّم لك
Gemma 2

تمت إعادة تصميم Gemma 2 للحصول على أداء فائق وكفاءة لا مثيل لها، وذلك لتوفير إمكانية استنتاج فائق السرعة على أجهزة متنوعة.

5 لقطات

MMLU

معيار MMLU هو اختبار يقيس اتساع المعرفة والقدرة على حل المشكلات التي تكتسبها النماذج اللغوية الكبيرة أثناء التدريب المسبق.

25 لقطة

ARC-C

معيار ARC-c هو مجموعة فرعية أكثر تركيزًا من مجموعة بيانات ARC-e، ولا يحتوي إلا على الأسئلة التي تمت الإجابة عنها بشكل غير صحيح من خلال الخوارزميات الشائعة (قاعدة استرجاعية وظهور الكلمات).

5 لقطات

بروتوكول GSM8K

يختبر معيار GSM8K قدرة النموذج اللغوي على حل المسائل الرياضية في مرحلة التعليم المدرسي والتي غالبًا ما تتطلب خطوات متعددة من الاستنتاج.

3-5 لقطات

AGIEval

يختبر مقياس أداء AGIEval الذكاء العام لنموذج لغوي من خلال أسئلة مشتقة من اختبارات حقيقية مصممة لتقييم القدرات الفكرية البشرية.

3-shot، CoT

BBH

ويركز مقياس الأداء (BBH) على المهام التي تتجاوز قدرات النماذج اللغوية الحالية، واختبار حدودها عبر مختلف مجالات الاستنتاج والفهم.

لقطة 3، F1

الانبطاح

DROP هو مقياس لفهم القراءة ويتطلب استنتاجًا منفصلاً على الفقرات.

5 لقطات

وينوجراند

يختبر مقياس أداء Winogrande قدرة النموذج اللغوي على حل مهام ملء الفراغات الغامضة باستخدام الخيارات الثنائية، ما يتطلب استدلالًا منطقيًا عامًا.

10 لقطات

HellaSwag

يتحدى مقياس HellaSwag قدرة النموذج اللغوي على فهم وتطبيق المنطق السليم من خلال اختيار النهاية الأكثر منطقية للقصة.

4 لقطات

الرياضيات

يقيّم MATH قدرة النموذج اللغوي على حل المسائل الكلامية الرياضية المعقدة، والتي تتطلب الاستنتاج وحل المشاكل متعدد الخطوات وفهم المفاهيم الرياضية.

0-لقطة

ARC-e

يختبر معيار ARC-e المهارات المتقدّمة للإجابة عن الأسئلة في النموذج اللغوي مع أسئلة علمية حقيقية من فئة خيارات متعددة على مستوى المدرسة الابتدائية.

0-لقطة

PIQA

يختبر مقياس أداء PIQA قدرة النموذج اللغوي على فهم المنطق السليم وتطبيقه من خلال الإجابة عن أسئلة حول التفاعلات الجسدية اليومية.

0-لقطة

SIQA

يقيّم معيار SIQA مدى فهم النموذج اللغوي للتفاعلات الاجتماعية والحس السليم الاجتماعي من خلال طرح أسئلة حول تصرفات الأشخاص وآثارها الاجتماعية.

0-لقطة

Boolq

يختبر مقياس أداء BoolQ قدرة النموذج اللغوي على الإجابة عن أسئلة نعم/لا تحدث بشكل طبيعي، كما يختبر قدرة النماذج على تنفيذ مهام استنتاج اللغة الطبيعية على أرض الواقع.

5 لقطات

TriviaQA

يختبر مقياس أداء TriviaQA مهارات فهم القراءة من خلال ثلاثة أضعاف الأدلة والأدلة على الأسئلة.

5 لقطات

NQ

يختبر مقياس قياس الأداء (NQ) قدرة النموذج اللغوي على إيجاد الإجابات وفهمها في مقالات ويكيبيديا كاملة، من خلال محاكاة سيناريوهات الإجابة على الأسئلة الواقعية.

Pass@1

HumanEval

يختبر معيار HumanEval قدرات إنشاء الرموز البرمجية في نموذج لغوي من خلال تقييم ما إذا كانت حلوله تجتاز اختبارات الوحدة الوظيفية لمشكلات البرمجة.

3 لقطات

MBPP

يختبر معيار MBPP قدرة النموذج اللغوي على حل المشكلات الأساسية لبرمجة بايثون، مع التركيز على مفاهيم البرمجة الأساسية والاستخدام القياسي للمكتبة.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 مليار

42.3

Gemma 2

2.6 مليار

51.3

Mistral

7 مليار

62.5

اللاما 3

8 مليار

66.6

Gemma 1

7 مليار

64.4

Gemma 2

9 مليار

71.3

Gemma 2

27 مليار

75.2

Gemma 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

55.4

Mistral

7 مليار

60.5

اللاما 3

8 مليار

59.2

Gemma 1

7 مليار

61.1

Gemma 2

9 مليار

68.4

Gemma 2

27 مليار

71.4

Gemma 1

2.5 مليار

15.1

Gemma 2

2.6 مليار

23.9

Mistral

7 مليار

39.6

اللاما 3

8 مليار

45.7

Gemma 1

7 مليار

51.8

Gemma 2

9 مليار

68.6

Gemma 2

27 مليار

74.0

Gemma 1

2.5 مليار

24.2

Gemma 2

2.6 مليار

30.6

Mistral

7 مليار

44.0

اللاما 3

8 مليار

45.9

Gemma 1

7 مليار

44.9

Gemma 2

9 مليار

52.8

Gemma 2

27 مليار

55.1

Gemma 1

2.5 مليار

35.2

Gemma 2

2.6 مليار

41.9

Mistral

7 مليار

56.0

اللاما 3

8 مليار

61.1

Gemma 1

7 مليار

59.0

Gemma 2

9 مليار

68.2

Gemma 2

27 مليار

74.9

Gemma 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

52.0

Mistral

7 مليار

63.8

اللاما 3

8 مليار

58.4

Gemma 1

7 مليار

56.3

Gemma 2

9 مليار

69.4

Gemma 2

27 مليار

74.2

Gemma 1

2.5 مليار

66.8

Gemma 2

2.6 مليار

70.9

Mistral

7 مليار

78.5

اللاما 3

8 مليار

76.1

Gemma 1

7 مليار

79.0

Gemma 2

9 مليار

80.6

Gemma 2

27 مليار

83.7

Gemma 1

2.5 مليار

71.7

Gemma 2

2.6 مليار

73.0

Mistral

7 مليار

83

اللاما 3

8 مليار

82.0

Gemma 1

7 مليار

82.3

Gemma 2

9 مليار

81.9

Gemma 2

27 مليار

86.4

Gemma 1

2.5 مليار

11.8

Gemma 2

2.6 مليار

15

Mistral

7 مليار

12.7

Gemma 1

7 مليار

24.3

Gemma 2

9 مليار

36.6

Gemma 2

27 مليار

42.3

Gemma 1

2.5 مليار

73.2

Gemma 2

2.6 مليار

80.1

Mistral

7 مليار

80.5

Gemma 1

7 مليار

81.5

Gemma 2

9 مليار

88.0

Gemma 2

27 مليار

88.6

Gemma 1

2.5 مليار

77.3

Gemma 2

2.6 مليار

77.8

Mistral

7 مليار

82.2

Gemma 1

7 مليار

81.2

Gemma 2

9 مليار

81.7

Gemma 2

27 مليار

83.2

Gemma 1

2.5 مليار

49.7

Gemma 2

2.6 مليار

51.9

Mistral

7 مليار

47.0

Gemma 1

7 مليار

51.8

Gemma 2

9 مليار

53.4

Gemma 2

27 مليار

53.7

Gemma 1

2.5 مليار

69.4

Gemma 2

2.6 مليار

72.5

Mistral

7 مليار

83.2

Gemma 1

7 مليار

83.2

Gemma 2

9 مليار

84.2

Gemma 2

27 مليار

84.8

Gemma 1

2.5 مليار

53.2

Gemma 2

2.6 مليار

59.4

Mistral

7 مليار

62.5

Gemma 1

7 مليار

63.4

Gemma 2

9 مليار

76.6

Gemma 2

27 مليار

83.7

Gemma 1

2.5 مليار

12.5

Gemma 2

2.6 مليار

16.7

Mistral

7 مليار

23.2

Gemma 1

7 مليار

23.0

Gemma 2

9 مليار

29.2

Gemma 2

27 مليار

34.5

Gemma 1

2.5 مليار

22.0

Gemma 2

2.6 مليار

17.7

Mistral

7 مليار

26.2

Gemma 1

7 مليار

32.3

Gemma 2

9 مليار

40.2

Gemma 2

27 مليار

51.8

Gemma 1

2.5 مليار

29.2

Gemma 2

2.6 مليار

29.6

Mistral

7 مليار

40.2

Gemma 1

7 مليار

44.4

Gemma 2

9 مليار

52.4

Gemma 2

27 مليار

62.6

*في ما يلي مقاييس الأداء للنماذج المدرَّبة مسبقًا. يُرجى الاطّلاع على التقرير الفني للحصول على تفاصيل عن الأداء باستخدام أساليب أخرى.

مجموعة نماذج Gemma

أدلة البدء السريع للمطوّرين

كتاب الطبخ الخاص بجيما

استكشِف مجموعة من الوصفات العملية والأمثلة التي تعرض مدى فعالية "جيما" وتنوّعها في مهام مثل إضافة شرح للصور باستخدام PaliGemma، وإنشاء الرموز البرمجية باستخدام CodeGemma، وإنشاء روبوتات دردشة مع نماذج Gemma المُحسَّنة.

التطوير المسؤول للذكاء الاصطناعي

المسئولية حسب التصميم

تم تدريب التطبيق مسبقًا على البيانات المنظّمة بعناية وتم ضبطهما للحفاظ على السلامة.

تقييم قوي وشفاف

تكشف التقييمات الشاملة وإعداد التقارير الشفافة عن قيود النموذج لاعتماد نهج مسؤول لكل حالة استخدام.

تعزيز التطوير المسؤول

تساعد مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول المطوّرين على تصميم وتنفيذ أفضل ممارسات الذكاء الاصطناعي بشكل مسؤول.

رمز Google Cloud

محسَّنة لخدمة Google Cloud

باستخدام نماذج Gemma المتوفّرة في Google Cloud، يمكنك تخصيص النموذج بشكلٍ كبير وفقًا لاحتياجاتك المحددة باستخدام أدوات Vertex AI المُدارة بالكامل أو خيار GKE المُدار ذاتيًا ونشره في بنية أساسية مرنة ومنخفضة التكلفة ومحسّنة باستخدام الذكاء الاصطناعي.

تسريع الأبحاث الأكاديمية باستخدام أرصدة Google Cloud

انتهى "برنامج الأبحاث الأكاديمية" مؤخرًا فترة تقديم الطلبات، حيث تم منح أرصدة Google Cloud لمساعدة الباحثين في توسيع آفاق الاكتشاف العلمي باستخدام نماذج Gemma. ونحن متحمسون لرؤية الأبحاث الرائدة التي تنشأ من هذه المبادرة.

ترقَّب الفرص المتاحة في المستقبل لتطوير أبحاثك من خلال Google Cloud.

انضم إلى المنتدى

يمكنك التواصل واستكشاف معرفتك ومشاركتها مع مستخدمين آخرين في منتدى نماذج تعلُّم الآلة.