مدل های باز جما

خانواده ای از مدل های باز سبک وزن و پیشرفته که از همان تحقیقات و فناوری استفاده شده برای ایجاد مدل های Gemini ساخته شده اند.

توسط نماد طراحی مسئول است

مسئول طراحی

این مدل‌ها با ترکیب اقدامات ایمنی جامع، به اطمینان از راه‌حل‌های هوش مصنوعی مسئول و قابل اعتماد از طریق مجموعه داده‌های انتخاب شده و تنظیم دقیق کمک می‌کنند.

نماد عملکرد بی بدیل

عملکرد بی نظیر در اندازه

مدل‌های Gemma در اندازه‌های 2B، 7B، 9B و 27B خود به نتایج معیار استثنایی دست می‌یابند، حتی از برخی مدل‌های باز بزرگتر نیز بهتر عمل می‌کنند.

چارچوب انعطاف پذیر

چارچوب انعطاف پذیر

با Keras 3.0، از سازگاری یکپارچه با JAX، TensorFlow و PyTorch لذت ببرید، و به شما این امکان را می‌دهد تا بسته به وظیفه خود بدون زحمت چارچوب‌ها را انتخاب کرده و تغییر دهید.

معرفی کردن
جما 2

Gemma 2 که برای عملکرد بزرگ و کارایی بی بدیل دوباره طراحی شده است، برای استنتاج سریع بر روی سخت افزارهای مختلف بهینه سازی می کند.

5-شات

MMLU

معیار MMLU آزمونی است که وسعت دانش و توانایی حل مسئله به دست آمده توسط مدل های زبانی بزرگ را در طول پیش آموزش اندازه گیری می کند.

25-شات

ARC-C

معیار ARC-c زیرمجموعه متمرکزتری از مجموعه داده ARC-e است که فقط شامل سؤالاتی است که توسط الگوریتم‌های رایج (پایه بازیابی و هم‌روی کلمه) به اشتباه پاسخ داده شده است.

5-شات

GSM8K

معیار GSM8K توانایی یک مدل زبان را برای حل مسائل ریاضی در سطح مدرسه که اغلب به چندین مرحله استدلال نیاز دارند، آزمایش می کند.

3-5-شات

AGIEval

معیار AGIEval هوش عمومی یک مدل زبان را با استفاده از سؤالات مشتق شده از آزمون های دنیای واقعی که برای ارزیابی توانایی های فکری انسان طراحی شده اند، آزمایش می کند.

3-شات، CoT

BBH

معیار BBH (BIG-Bench Hard) بر روی کارهایی تمرکز دارد که فراتر از توانایی‌های مدل‌های زبان فعلی تلقی می‌شوند و محدودیت‌های آن‌ها را در حوزه‌های استدلال و درک مختلف آزمایش می‌کنند.

3-شات، F1

رها کردن

DROP یک معیار درک مطلب است که به استدلال گسسته روی پاراگراف ها نیاز دارد.

5-شات

وینوگراند

معیار Winogrande توانایی یک مدل زبان را برای حل تکالیف مبهم پر کردن خالی با گزینه‌های باینری، که نیاز به استدلال عام عمومی دارد را آزمایش می‌کند.

10-شات

هلاسواگ

معیار HellaSwag با انتخاب منطقی ترین پایان یک داستان، توانایی یک مدل زبان در درک و به کارگیری استدلال عقل سلیم را به چالش می کشد.

4-شات

ریاضی

MATH توانایی یک مدل زبان را برای حل مسائل پیچیده کلمه ریاضی که نیاز به استدلال، حل مسئله چند مرحله ای و درک مفاهیم ریاضی دارد، ارزیابی می کند.

0-شات

ARC-e

معیار ARC-e مهارت‌های پیشرفته‌ی پاسخ‌گویی به سؤالات یک مدل زبان را با سؤالات علمی چندگزینه‌ای واقعی در سطح کلاس‌مدرسه آزمایش می‌کند.

0-شات

PIQA

معیار PIQA توانایی یک مدل زبان را برای درک و به کارگیری دانش عام فیزیکی با پاسخ دادن به سؤالاتی در مورد تعاملات فیزیکی روزمره آزمایش می کند.

0-شات

SIQA

معیار SIQA درک یک مدل زبان از تعاملات اجتماعی و عقل سلیم اجتماعی را با پرسیدن سؤالاتی در مورد اقدامات افراد و پیامدهای اجتماعی آنها ارزیابی می کند.

0-شات

بولق

معیار BoolQ توانایی یک مدل زبان را برای پاسخ دادن به سوالات بله/خیر طبیعی آزمایش می‌کند و توانایی مدل‌ها را برای انجام وظایف استنتاج زبان طبیعی در دنیای واقعی آزمایش می‌کند.

5-شات

TriviaQA

معیار TriviaQA مهارت های درک مطلب را با سه برابر پرسش-پاسخ-شواهد تست می کند.

5-شات

NQ

معیار NQ (سوالات طبیعی) توانایی یک مدل زبان را برای یافتن و درک پاسخ‌ها در کل مقالات ویکی‌پدیا، شبیه‌سازی سناریوهای پاسخ‌گویی به پرسش در دنیای واقعی، آزمایش می‌کند.

پاس@1

HumanEval

معیار HumanEval با ارزیابی اینکه آیا راه‌حل‌های آن آزمون‌های واحد عملکردی را برای مشکلات برنامه‌نویسی قبول می‌کنند، توانایی‌های تولید کد یک مدل زبان را آزمایش می‌کند.

3-شات

MBPP

معیار MBPP توانایی یک مدل زبان را برای حل مشکلات اساسی برنامه نویسی پایتون، با تمرکز بر مفاهیم اساسی برنامه نویسی و استفاده از کتابخانه استاندارد، آزمایش می کند.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

جما 1

2.5B

42.3

جما 2

2.6B

51.3

میسترال

7B

62.5

LLAMA 3

8B

66.6

جما 1

7B

64.4

جما 2

9B

71.3

جما 2

27B

75.2

جما 1

2.5B

48.5

جما 2

2.6B

55.4

میسترال

7B

60.5

LLAMA 3

8B

59.2

جما 1

7B

61.1

جما 2

9B

68.4

جما 2

27B

71.4

جما 1

2.5B

15.1

جما 2

2.6B

23.9

میسترال

7B

39.6

LLAMA 3

8B

45.7

جما 1

7B

51.8

جما 2

9B

68.6

جما 2

27B

74.0

جما 1

2.5B

24.2

جما 2

2.6B

30.6

میسترال

7B

44.0

LLAMA 3

8B

45.9

جما 1

7B

44.9

جما 2

9B

52.8

جما 2

27B

55.1

جما 1

2.5B

35.2

جما 2

2.6B

41.9

میسترال

7B

56.0

LLAMA 3

8B

61.1

جما 1

7B

59.0

جما 2

9B

68.2

جما 2

27B

74.9

جما 1

2.5B

48.5

جما 2

2.6B

52.0

میسترال

7B

63.8

LLAMA 3

8B

58.4

جما 1

7B

56.3

جما 2

9B

69.4

جما 2

27B

74.2

جما 1

2.5B

66.8

جما 2

2.6B

70.9

میسترال

7B

78.5

LLAMA 3

8B

76.1

جما 1

7B

79.0

جما 2

9B

80.6

جما 2

27B

83.7

جما 1

2.5B

71.7

جما 2

2.6B

73.0

میسترال

7B

83.0

LLAMA 3

8B

82.0

جما 1

7B

82.3

جما 2

9B

81.9

جما 2

27B

86.4

جما 1

2.5B

11.8

جما 2

2.6B

15.0

میسترال

7B

12.7

جما 1

7B

24.3

جما 2

9B

36.6

جما 2

27B

42.3

جما 1

2.5B

73.2

جما 2

2.6B

80.1

میسترال

7B

80.5

جما 1

7B

81.5

جما 2

9B

88.0

جما 2

27B

88.6

جما 1

2.5B

77.3

جما 2

2.6B

77.8

میسترال

7B

82.2

جما 1

7B

81.2

جما 2

9B

81.7

جما 2

27B

83.2

جما 1

2.5B

49.7

جما 2

2.6B

51.9

میسترال

7B

47.0

جما 1

7B

51.8

جما 2

9B

53.4

جما 2

27B

53.7

جما 1

2.5B

69.4

جما 2

2.6B

72.5

میسترال

7B

83.2

جما 1

7B

83.2

جما 2

9B

84.2

جما 2

27B

84.8

جما 1

2.5B

53.2

جما 2

2.6B

59.4

میسترال

7B

62.5

جما 1

7B

63.4

جما 2

9B

76.6

جما 2

27B

83.7

جما 1

2.5B

12.5

جما 2

2.6B

16.7

میسترال

7B

23.2

جما 1

7B

23.0

جما 2

9B

29.2

جما 2

27B

34.5

جما 1

2.5B

22.0

جما 2

2.6B

17.7

میسترال

7B

26.2

جما 1

7B

32.3

جما 2

9B

40.2

جما 2

27B

51.8

جما 1

2.5B

29.2

جما 2

2.6B

29.6

میسترال

7B

40.2

جما 1

7B

44.4

جما 2

9B

52.4

جما 2

27B

62.6

*اینها معیارهای مدل های از پیش آموزش دیده هستند، برای جزئیات عملکرد با روش های دیگر به گزارش فنی مراجعه کنید.

خانواده مدل جما

نسخه جدید

جما 2

Gemma 2 سه مدل جدید، قدرتمند و کارآمد را در اندازه‌های 2، 9 و 27 میلیارد پارامتر ارائه می‌کند که همگی با پیشرفت‌های ایمنی داخلی عرضه می‌شوند.

نسخه جدید

DataGemma

DataGemma اولین مدل های باز طراحی شده برای اتصال LLM ها با داده های دنیای واقعی گسترده است که از Data Commons گوگل گرفته شده است.

جما 1

مدل‌های Gemma، مدل‌های زبانی سبک وزن، متن به متن، فقط رمزگشا هستند که بر روی مجموعه داده‌ای عظیم از متن، کد و محتوای ریاضی برای انواع وظایف پردازش زبان طبیعی آموزش داده شده‌اند.

RecurrentGemma

RecurrentGemma یک مدل فنی متمایز است که از شبکه‌های عصبی مکرر و توجه محلی برای بهبود کارایی حافظه استفاده می‌کند.

PaliGemma

PaliGemma یک مدل زبان بینایی باز با الهام از PaLI-3 است که از SigLIP و Gemma استفاده می کند و به عنوان یک مدل همه کاره برای انتقال به طیف گسترده ای از وظایف زبان بینایی طراحی شده است.

CodeGemma

CodeGemma با بهره‌گیری از پایه‌های مدل‌های Gemma از پیش آموزش‌دیده اولیه، قابلیت‌های قدرتمند تکمیل کد و تولید را در اندازه‌های متناسب با رایانه محلی شما به ارمغان می‌آورد.

ابزارهای ما را کاوش کنید

نماد ShieldGemma
ShieldGemma
ShieldGemma مجموعه ای از مدل های طبقه بندی کننده محتوای ایمنی است که بر اساس Gemma 2 ساخته شده است تا ورودی و خروجی مدل های هوش مصنوعی را فیلتر کرده و کاربر را ایمن نگه دارد.
نماد Gemma Scope
گما اسکوپ
Gemma Scope شفافیت بی‌سابقه‌ای را در فرآیندهای تصمیم‌گیری مدل‌های Gemma 2 به محققان ارائه می‌دهد.