نماذج Gemma المفتوحة

مجموعة من النماذج الخفيفة والحديثة المفتوحة التي تم إنشاؤها من خلال الأبحاث والتكنولوجيا نفسها المستخدَمة في إنشاء نماذج Gemini

شعار طُرز Gemma

تصميم مسؤول

من خلال دمج تدابير السلامة الشاملة، تساعد هذه النماذج في ضمان حلول الذكاء الاصطناعي المسؤولة والموثوقة من خلال مجموعات بيانات منظَّمة وتعديلات دقيقة.

شعار طُرز Gemma

أداء غير مطابق بحجمه

تحقّق نماذج Gemma نتائج قياس أداء استثنائية بأحجامها 2B و7B، بل وتتفوق على بعض الطُرز المفتوحة الأكبر حجمًا.

شعار طُرز Gemma

إطار عمل مرن

باستخدام Keras 3.0، يمكنك الاستمتاع بالتوافق السلس مع JAX وTensorFlow وPyTorch، ما يتيح لك اختيار أُطر العمل وتبديلها بسهولة بناءً على مهمتك.

مقاييس الأداء

تضع "جيما" معاييرًا جديدة للأداء المتطوّر من حيث الحجم مقارنةً بالطُرز الرائجة مثل Llama 2 وMistral 7B.

5 لقطات، أعلى 1

MMLU

إن معيار MMLU هو اختبار يقيس مدى اتساع المعرفة وقدرة حل المشكلات التي اكتسبتها النماذج اللغوية الكبيرة أثناء التدريب المسبق.

0 لقطة

HellaSwag

يتحدى مقياس HellaSwag قدرة النموذج اللغوي على فهم وتطبيق المنطق السليم من خلال اختيار النهاية الأكثر منطقية للقصة.

0 لقطة

PIQA

يختبر مقياس PIQA قدرة النموذج اللغوي على فهم وتطبيق معرفة المنطق السليم من خلال الإجابة عن أسئلة حول التفاعلات الجسدية اليومية.

0 لقطة

شهادة SIQA

يقيّم مقياس SIQA مدى فهم النموذج اللغوي للتفاعلات الاجتماعية والحس الاجتماعي العام من خلال طرح أسئلة حول أفعال الأشخاص وآثارهم الاجتماعية.

0 لقطة

دالة Boolq

يختبر مقياس BoolQ قدرة النموذج اللغوي على الإجابة عن الأسئلة التي تحدث بشكل طبيعي (يتم إنشاؤها في إعدادات غير مشروطة وغير مشروطة) بنعم أو لا، ما يختبر قدرة النماذج على تنفيذ مهام استنتاج اللغة الطبيعية في الواقع.

النتيجة الجزئية

وينوغراندي

يختبر معيار Winogrande قدرة النموذج اللغوي على حلّ مهام ملء الفراغات الغامضة باستخدام خيارات ثنائية، الأمر الذي يتطلّب أسبابًا منطقية عامة.

7 لقطات

ضمان جودة

يقيّم مقياس CQA أداء النماذج اللغوية من خلال الإجابة عن أسئلة متعددة الخيارات، ويتطلب ذلك أنواعًا مختلفة من المعرفة حول المنطق السليم.

هيئة جودة الهواء (OBQA)

يقيّم مقياس أداء OBQA قدرة النموذج اللغوي على تقديم إجابات متقدّمة عن الأسئلة من خلال التفكير متعدد الخطوات، والمعرفة المنطقية، وفهم النصوص المنسّقة، على غرار اختبارات الكتب المفتوحة.

تقنية ARC-e

يختبر مقياس ARC-e المهارات المتقدمة للإجابة عن الأسئلة في نموذج لغوي، وذلك من خلال أسئلة علمية ذات خيارات متعددة وتحديات وصول حقيقية إلى مستوى التعليم الدراسي.

ARC-c

معيار ARC-c هو مجموعة فرعية أكثر تركيزًا من مجموعة بيانات ARC-e، وهي تحتوي فقط على الأسئلة التي تمت الإجابة عليها بشكل غير صحيح عن طريق خوارزميات شائعة (توافُق الكلمات والأساس الاسترجاعي).

5 لقطات

TriviaQA

يختبر مقياس TriviaQA مقاييس الفهم في القراءة من خلال تقديم ثلاث أدلة على الأسئلة والأجوبة.

Pass@1

HumanEval

يختبر مقياس HumanEval قدرات إنشاء التعليمات البرمجية للنموذج اللغوي من خلال تقييم ما إذا كانت حلوله تجتاز اختبارات الوحدات الوظيفية لمشكلات البرمجة.

3 لقطات

شهادة MBPP

يختبر مقياس MBPP قدرة النموذج اللغوي على حل مشكلات برمجة بايثون الأساسية، مع التركيز على مفاهيم البرمجة الأساسية واستخدام المكتبة القياسي.

maj@1

بروتوكول GSM8K

يختبر معيار GSM8K قدرة النموذج اللغوي على حل مسائل رياضية على مستوى المدارس الابتدائية والتي تتطلب عادةً خطوات متعددة للتفكير.

4 لقطات

MATH

يقيّم مقياس MATH قدرة نموذج لغوي على حل المسائل الكلامية الرياضية المعقدة، والتي تتطلب الاستدلال، وحل المشكلات متعددة الخطوات، وفهم المفاهيم الرياضية.

AGIEval

يختبر مقياس AGIEval الذكاء العام للنموذج اللغوي باستخدام أسئلة مستمدة من اختبارات العالم الواقعي المصمّمة لتقييم القدرات الفكرية البشرية (امتحانات قبول الجامعات واختبارات القانون وما إلى ذلك).

بولي يورثان متلدّن بالحرارة

يركّز مقياس معيار BBH (BIG-Bench Hard) على المهام التي تتخطى قدرات النماذج اللغوية الحالية، حيث يختبر حدودها على مستوى نطاقات الاستدلال والفهم المختلفة.

100%

75%

50%

25%

‫0%

100%

75%

50%

25%

‫0%

Gemma

64.3

Gemma

42.3

ميسترال

62.5

LLAMA-2

13 ب

54.8

LLAMA-2

45.3

Gemma

81.2

Gemma

71.4

ميسترال

81.0

LLAMA-2

13 ب

80.7

LLAMA-2

77.2

Gemma

81.2

Gemma

77.3

ميسترال

82.2

LLAMA-2

13 ب

80.5

LLAMA-2

78.8

Gemma

51.8

Gemma

49.7

ميسترال

47.0*

LLAMA-2

13 ب

50.3

LLAMA-2

48.3

Gemma

83.2

Gemma

69.42

ميسترال

83.2*

LLAMA-2

13 ب

81.7

LLAMA-2

77.4

Gemma

72.3

Gemma

65.4

ميسترال

74.2

LLAMA-2

13 ب

72.8

LLAMA-2

69.2

Gemma

71.3

Gemma

65.3

ميسترال

66.3*

LLAMA-2

13 ب

67.3

LLAMA-2

57.8

Gemma

52.8

Gemma

47.8

ميسترال

52.2

LLAMA-2

13 ب

57

LLAMA-2

58.6

Gemma

81.5

Gemma

73.2

ميسترال

80.5

LLAMA-2

13 ب

77.3

LLAMA-2

75.2

Gemma

53.2

Gemma

42.06

ميسترال

54.9

LLAMA-2

13 ب

49.4

LLAMA-2

45.9

Gemma

63.4

Gemma

53.2

ميسترال

62.5

LLAMA-2

13 ب

79.6

LLAMA-2

72.1

Gemma

32.3

Gemma

22.0

ميسترال

26.2

LLAMA-2

13 ب

18.3

LLAMA-2

12.8

Gemma

44.4

Gemma

29.2

ميسترال

40.2*

LLAMA-2

13 ب

30.6

LLAMA-2

20.8

Gemma

46.4

Gemma

17.7

ميسترال

35.4*

LLAMA-2

13 ب

28.7

LLAMA-2

14.6

Gemma

24.3

Gemma

11.8

ميسترال

12.7

LLAMA-2

13 ب

3.9

LLAMA-2

2.5

Gemma

41.7

Gemma

24.2

ميسترال

41.2*

LLAMA-2

13 ب

39.1

LLAMA-2

29.3

Gemma

55.1

Gemma

35.2

ميسترال

56.1*

LLAMA-2

13 ب

39.4

LLAMA-2

32.6

*يمكنك الاطّلاع على التقرير الفني للحصول على تفاصيل حول الأداء باستخدام طرق أخرى.

التطوير المسؤول للذكاء الاصطناعي

المسؤولية حسب التصميم

تم تدريبه مسبقًا على بيانات منظَّمة بعناية وضبط إعدادات الأمان أولاً، ما ساعد في تعزيز تطوير الذكاء الاصطناعي الآمن والمسؤول استنادًا إلى نماذج "جيما".

تقييم قوي وشفاف

تكشف التقييمات الشاملة والتقارير الشفافة عن قيود النموذج لاعتماد نهج مسؤول لكل حالة استخدام.

تعزيز التطوير المسؤول

إنّ مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤولة تساعد المطوّرين في تصميم وتنفيذ أفضل ممارسات الذكاء الاصطناعي المسؤولة.

رمز Google Cloud

تطبيقات متوافقة مع Google Cloud

باستخدام نماذج Gemma على Google Cloud، يمكنك تخصيص النموذج بشكل كبير ليلائم احتياجاتك المحددة باستخدام الأدوات المُدارة بالكامل من Vertex AI أو خيار الإدارة الذاتية من GKE، ويمكنك نشره على بنية أساسية مرنة وفعّالة ومحسّنة للذكاء الاصطناعي.

تسريع وتيرة البحث الأكاديمي باستخدام أرصدة Google Cloud

انتهى برنامج البحوث الأكاديمية مؤخرًا من فترة تقديم الطلب له، حيث يمنح أرصدة Google Cloud لدعم الباحثين في تجاوز حدود الاكتشاف العلمي باستخدام نماذج جيما. نحن متحمسون لرؤية الأبحاث الرائدة التي تنشأ عن هذه المبادرة.

يمكنك متابعتنا لمعرفة الفرص المستقبلية لتطوير أبحاثك باستخدام Google Cloud.

انضم إلى المنتدى

يمكنك التواصل واستكشاف معلوماتك ومشاركتها مع الآخرين في منتدى نماذج تعلُّم الآلة.

تنافَس لإنشاء أفضل مساعد مستنِد إلى الذكاء الاصطناعي لمهندسي تعلُّم الآلة

تستضيف Kaggle مسابقة لتحدي المشاركين لاستخدام نماذج "جيما" لبناء أفضل مساعدي الذكاء الاصطناعي لمهام هندسة تعلُّم الآلة. سيتم الإعلان عن الفائزين في مؤتمر Google I/O.

الانضمام إلى المنافسة
جائزة مسابقة Kaggle