نماذج Gemma المفتوحة

مجموعة من النماذج الخفيفة والعصرية المفتوحة التي تم إنشاؤها من الأبحاث والتكنولوجيا نفسها المستخدمة في إنشاء نماذج Gemini

رمز التصميم بمسؤولية

تصميم مسؤول

ومن خلال دمج إجراءات السلامة الشاملة، تساعد هذه النماذج في ضمان توفير حلول مسؤولة وموثوقة مستندة إلى الذكاء الاصطناعي من خلال مجموعات بيانات منسَّقة وضبط صارم.

رمز أداء غير مطابق

أداء غير مطابق من حيث الحجم

تحقّق نماذج Gemma نتائج قياس أداء استثنائية بأحجام 2 مليار و7 مليار و9 مليار و27 مليار، حتى في أداء بعض النماذج المفتوحة الأكبر حجمًا.

مرونة في إطار العمل

إطار عمل مرن

باستخدام Keras 3.0، يمكنك الاستفادة من التوافق السلس مع JAX وTensorFlow وPyTorch، ما يتيح لك اختيار أُطر العمل وتبديلها بسهولة استنادًا إلى مهمتك.

نعرّفك على
Gemma 2

تمت إعادة تصميم Gemma 2 للحصول على أداء فائق وكفاءة لا مثيل لها، وذلك لتوفير استنتاج فائق السرعة على أجهزة متنوعة.

5 لقطات

MMLU

معيار MMLU هو اختبار يقيس اتساع المعرفة والقدرة على حل المشكلات التي تكتسبها النماذج اللغوية الكبيرة أثناء التدريب المسبق.

25 لقطة

ARC-C

مقياس ARC-c هو مجموعة فرعية أكثر تركيزًا من مجموعة بيانات ARC-e، ولا يحتوي إلا على الأسئلة التي تمّت الإجابة عنها بشكلٍ غير صحيح من خلال الخوارزميات الشائعة (الخوارزميات المستندة إلى الاسترجاع وتلك المستندة إلى تكرار الكلمات).

5 لقطات

بروتوكول GSM8K

يختبر معيار GSM8K قدرة النموذج اللغوي على حل المسائل الحسابية في مرحلة التعليم المدرسي والتي غالبًا ما تتطلب خطوات متعددة من الاستنتاج.

3-5-shot

AGIEval

يختبر مقياس أداء AGIEval الذكاء العام لنموذج لغوي من خلال أسئلة مشتقة من اختبارات حقيقية مصممة لتقييم القدرات الفكرية البشرية.

3-shot، CoT

BBH

يركز مقياس BBH (BIG-Bench Hard) على المهام التي يُعتقد أنّها تتجاوز قدرات النماذج اللغوية الحالية، ما يُظهر حدودها في نطاقات مختلفة من الاستدلال والفهم.

لقطة بثلاثة صور، F1

الانبطاح

DROP هو مقياس لفهم القراءة يتطلب استنتاجًا منفصلاً على الفقرات.

5 لقطات

Winogrande

يختبر مقياس أداء Winogrande قدرة النموذج اللغوي على حل مهام ملء الفراغات الغامضة باستخدام الخيارات الثنائية، ما يتطلب استدلالًا منطقيًا عامًا.

10 لقطات

HellaSwag

يتحدى مقياس HellaSwag قدرة النموذج اللغوي على فهم وتطبيق المنطق السليم من خلال اختيار النهاية الأكثر منطقية للقصة.

لقطة من 4 صور

MATH

يُقيّم MATH قدرة نموذج لغوي على حلّ المسائل الكلامية الرياضية المعقّدة التي تتطلّب التفكير المنطقي وحلّ المشاكل المتعدّدة الخطوات وفهم المفاهيم الرياضية.

طلب بلا مثال

ARC-e

يختبر مقياس الأداء ARC-e مهارات الإجابة عن الأسئلة المتقدّمة في نموذج اللغة باستخدام أسئلة علمية حقيقية متعددة الخيارات على مستوى المدرسة الابتدائية.

طلب بلا مثال

PIQA

يختبر مقياس أداء PIQA قدرة النموذج اللغوي على فهم المنطق السليم وتطبيقه من خلال الإجابة عن أسئلة حول التفاعلات الجسدية اليومية.

0-لقطة

SIQA

يُقيّم مقياس SIQA مدى فهم نموذج اللغة للتفاعلات الاجتماعية والحسّ الاجتماعي العام من خلال طرح أسئلة عن أفعال الأشخاص وآثارها الاجتماعية.

طلب بلا مثال

Boolq

يختبر مقياس BoolQ أداء نموذج اللغة في الإجابة عن أسئلة نعم/لا بشكل طبيعي، ما يُظهر قدرة النماذج على تنفيذ مهام الاستنتاج المستندة إلى اللغة الطبيعية في الحياة الواقعية.

5 لقطات

TriviaQA

يختبر مقياس أداء TriviaQA مهارات فهم القراءة من خلال ثلاثة أضعاف الأدلة والأدلة على الأسئلة.

5 لقطات

NQ

يختبر مقياس قياس الأداء (NQ) قدرة النموذج اللغوي على إيجاد الإجابات وفهمها في مقالات ويكيبيديا كاملة، من خلال محاكاة سيناريوهات الإجابة عن الأسئلة الواقعية.

pass@1

HumanEval

يختبر معيار HumanEval قدرات إنشاء الرموز البرمجية في نموذج لغوي من خلال تقييم ما إذا كانت حلوله تجتاز اختبارات الوحدة الوظيفية لمشكلات البرمجة.

لقطة من 3 صور

MBPP

يختبر مقياس MBPP قدرة نموذج اللغة على حلّ المشاكل الأساسية في برمجة بايثون، مع التركيز على مفاهيم البرمجة الأساسية واستخدام المكتبة العادية.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

جميلة 1

2.5 مليار

42.3

جميلة 2

2.6 مليار

51.3

Mistral

7 مليار

62.5

اللاما 3

8B

66.6

Gemma 1

‫7 مليار

64.4

مها 2

9 مليار

71.3

Gemma 2

27 مليار

75.2

جميلة 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

55.4

ميسترال

7 مليار

60.5

LLAMA 3

8B

59.2

Gemma 1

7 مليار

61.1

جميلة 2

‫9 مليار

68.4

مها 2

27 مليار

71.4

مها 1

2.5 مليار

15.1

مها 2

2.6 مليار

23.9

ميسترال

7 مليار

39.6

اللاما 3

8 مليار

45.7

جميلة 1

‫7 مليار

51.8

جميلة 2

‫9B

68.6

Gemma 2

27 مليار

74.0

Gemma 1

2.5 مليار

24.2

جميلة 2

2.6 مليار

30.6

ميسترال

7 مليار

44.0

LLAMA 3

8B

45.9

Gemma 1

‫7 مليار

44.9

مها 2

‫9B

52.8

Gemma 2

27 مليار

55.1

Gemma 1

2.5 مليار

35.2

جميلة 2

2.6 مليار

41.9

ميسترال

‫7 مليار

56.0

اللاما 3

8 مليار

61.1

Gemma 1

‫7 مليار

59.0

Gemma 2

‫9 مليار

68.2

Gemma 2

27 مليار

74.9

مها 1

2.5 مليار

48.5

Gemma 2

2.6 مليار

52.0

Mistral

7 مليار

63.8

اللاما 3

8B

58.4

مها 1

7 مليار

56.3

Gemma 2

9 مليار

69.4

Gemma 2

27 مليار

74.2

Gemma 1

2.5 مليار

66.8

Gemma 2

2.6 مليار

70.9

ميسترال

‫7 مليار

78.5

اللاما 3

8 مليار

76.1

جميلة 1

‫7 مليار

79.0

Gemma 2

9 مليار

80.6

مها 2

‫27 مليار

83.7

Gemma 1

2.5 مليار

71.7

Gemma 2

2.6 مليار

73.0

Mistral

7 مليار

83

LLAMA 3

8B

82.0

Gemma 1

7 مليار

82.3

مها 2

9 مليار

81.9

Gemma 2

‫27 مليار

86.4

جميلة 1

2.5 مليار

11.8

Gemma 2

2.6 مليار

15

ميسترال

‫7 مليار

12.7

جميلة 1

‫7 مليار

24.3

Gemma 2

‫9 مليار

36.6

Gemma 2

27 مليار

42.3

Gemma 1

2.5 مليار

73.2

Gemma 2

2.6 مليار

80.1

Mistral

‫7 مليار

80.5

Gemma 1

7 مليار

81.5

Gemma 2

‫9B

88.0

Gemma 2

27 مليار

88.6

Gemma 1

2.5 مليار

77.3

مها 2

2.6 مليار

77.8

Mistral

7 مليار

82.2

Gemma 1

7 مليار

81.2

Gemma 2

9 مليار

81.7

Gemma 2

27 مليار

83.2

Gemma 1

2.5 مليار

49.7

جميلة 2

2.6 مليار

51.9

ميسترال

‫7 مليار

47.0

جميلة 1

‫7 مليار

51.8

جميلة 2

9 مليار

53.4

Gemma 2

27 مليار

53.7

Gemma 1

2.5 مليار

69.4

جميلة 2

2.6 مليار

72.5

ميسترال

‫7 مليار

83.2

Gemma 1

7 مليار

83.2

جميلة 2

‫9 مليار

84.2

Gemma 2

‫27 مليار

84.8

Gemma 1

2.5 مليار

53.2

Gemma 2

2.6 مليار

59.4

Mistral

7 مليار

62.5

جميلة 1

7 مليار

63.4

Gemma 2

9 مليار

76.6

جميلة 2

‫27 مليار

83.7

Gemma 1

2.5 مليار

12.5

جميلة 2

2.6 مليار

16.7

Mistral

7 مليار

23.2

مها 1

‫7 مليار

23.0

مها 2

‫9 مليار

29.2

Gemma 2

27 مليار

34.5

جميلة 1

2.5 مليار

22.0

Gemma 2

2.6 مليار

17.7

ميسترال

‫7 مليار

26.2

Gemma 1

7 مليار

32.3

Gemma 2

9 مليار

40.2

مها 2

27 مليار

51.8

Gemma 1

2.5 مليار

29.2

مها 2

2.6 مليار

29.6

Mistral

7 مليار

40.2

جميلة 1

‫7 مليار

44.4

Gemma 2

9 مليار

52.4

Gemma 2

27 مليار

62.6

*هذه هي مقاييس الأداء للنماذج المدربة مسبقًا، اطّلِع على التقرير الفني للحصول على تفاصيل عن الأداء باستخدام منهجيات أخرى.

مجموعة نماذج Gemma

إصدار جديد

Gemma 2

توفّر Gemma 2 ثلاثة نماذج جديدة وفعّالة وفعّالة بثلاثة أحجام للمَعلمات، وهي 2 و9 و27 مليار مَعلمة، وجميعها تتضمّن تحسينات أمان مضمّنة.

إصدار جديد

DataGemma

DataGemma هي أول نماذج مفتوحة مصمّمة لربط النماذج اللغوية الكبيرة (LLM) ببيانات واسعة من العالم الواقعي يتم استخراجها من Data Commons من Google.

جميلة 1

نماذج Gemma هي نماذج لغوية كبيرة وخفيفة الوزن وتعمل على تحويل النصوص إلى نصوص، وهي نماذج لفك الترميز فقط، وتم تدريبها على مجموعة بيانات ضخمة من النصوص والرموز والمحتوى الرياضي لتنفيذ مجموعة متنوعة من مهام معالجة اللغة الطبيعية.

RecurrentGemma

RecurrentGemma هو نموذج متميز من الناحية التقنية يستفيد من الشبكات العصبية المتكررة والتركيز المحلي لتحسين كفاءة الذاكرة.

PaliGemma

‫PaliGemma هو نموذج مفتوح للغة المرئية مستوحى من PaLI-3، ويستفيد من SigLIP وGemma، وهو مصمّم كنموذج متعدد الاستخدامات يمكن نقله إلى مجموعة كبيرة من مهام اللغة المرئية.

CodeGemma

من خلال الاستفادة من الأساس الذي تستند إليه نماذج Gemma الأصلية المدربة مسبقًا، يوفّر CodeGemma إمكانات قوية لإكمال الرموز البرمجية وإنشائها بحجم مناسب للكمبيوتر المحلي.

أدلة البدء السريع للمطوّرين

كتاب الطبخ الخاص بجيما

تعرَّف على مجموعة من الوصفات العملية والأمثلة التي تعرض مدى فعالية "جيما" وتنوّعها في مهام مثل إضافة شرح للصور باستخدام PaliGemma، وإنشاء الرموز البرمجية باستخدام CodeGemma، وإنشاء روبوتات دردشة مع نماذج Gemma المُحسَّنة.

تطوير الذكاء الاصطناعي بشكل مسؤول

المسئولية حسب التصميم

تم تدريب التطبيق مسبقًا على البيانات المنظّمة بعناية وتم ضبطهما للحفاظ على السلامة.

تقييم قوي وشفاف

تكشف التقييمات الشاملة وإعداد التقارير الشفافة عن قيود النموذج لاعتماد نهج مسؤول لكل حالة استخدام.

تعزيز التطوير المسؤول

تساعد مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول المطوّرين على تصميم وتنفيذ أفضل ممارسات الذكاء الاصطناعي بشكل مسؤول.

رمز Google Cloud

محسَّنة لخدمات Google Cloud

باستخدام نماذج Gemma على Google Cloud، يمكنك تخصيص النموذج بشكلٍ معمّق لتلبية احتياجاتك المحدّدة باستخدام أدوات Vertex AI المُدارة بالكامل أو خيار الإدارة الذاتية في GKE، ونشره على بنية أساسية مرنة وفعّالة من حيث التكلفة ومحسّنة بالاستناد إلى الذكاء الاصطناعي.

تسريع الأبحاث الأكاديمية باستخدام أرصدة Google Cloud

انتهى "برنامج الأبحاث الأكاديمية" مؤخرًا فترة تقديم الطلبات، حيث تم منح أرصدة Google Cloud لمساعدة الباحثين في توسيع آفاق الاكتشاف العلمي باستخدام نماذج Gemma. ونحن متحمسون لرؤية الأبحاث الرائدة التي تنشأ من هذه المبادرة.

ترقَّب الفرص المتاحة في المستقبل لتطوير أبحاثك من خلال Google Cloud.

انضم إلى المنتدى

يمكنك التواصل مع الآخرين في مجتمع نماذج تعلُّم الآلة وتصفّحها ومشاركتها.