דגמים פתוחים של Gemma

משפחה של מודלים קלילים וחדשניים פתוחים, המבוססים על אותם מחקר וטכנולוגיה ששימשו ליצירת דגמי Gemini.

הלוגו של דגמי Gemma

באחריות מכוונת

המודלים האלה משלבים אמצעי בטיחות מקיפים, וכך עוזרים להבטיח פתרונות AI אחראיים ואמינים באמצעות מערכי נתונים שנאספו וכוונון קפדני.

הלוגו של דגמי Gemma

ביצועים ללא התאמה בגודלם

המודלים של Gemma משיגים תוצאות יוצאות דופן ביחס למתחרים בגדלים של 2B ו-7B, ואפילו משיגים ביצועים טובים יותר ממודלים פתוחים גדולים יותר.

הלוגו של דגמי Gemma

מסגרת גמישה

עם Keras 3.0 נהנים מתאימות חלקה ל-JAX , TensorFlow ו-PyTorch. כך אפשר לבחור בקלות מסגרות (frameworks) ולהחליף אותן בהתאם למשימה.

נקודות השוואה

מיכל מגדירה רף חדש לביצועים מתקדמים של גודל בהשוואה למודלים פופולריים כמו Llama 2 ו-Mistral 7B.

חבטות 5, 1+

MMLU

נקודת ההשוואה של MMLU היא בדיקה שמודדת את היקף הידע ויכולת פתרון הבעיות שנרכשו על ידי מודלים גדולים של שפה (LLM) במהלך אימון מראש.

ניסיון ראשון

HellaSwag

נקודת ההשוואה של HellaSwag מאתגרת את היכולת של מודל שפה להבין וליישם הגיון בריא על ידי בחירת הסיום ההגיוני ביותר לסיפור.

ניסיון ראשון

פיקה

נקודת ההשוואה של PIQA בודקת את היכולת של מודל שפה להבין וליישם ידע פיזיקלי על ידי מענה על שאלות לגבי אינטראקציות פיזיות יומיומיות.

ניסיון ראשון

SIQA

נקודת ההשוואה של SIQA מאפשרת לבחון את ההבנה של מודל השפה לגבי אינטראקציות חברתיות והיגיון בריא, על ידי הצגת שאלות לגבי פעולות של אנשים וההשלכות שלהם ברשתות החברתיות.

ניסיון ראשון

בולק

נקודת ההשוואה של BoolQ בודקת את היכולת של מודל שפה לענות על שאלות כן/לא המתרחשות באופן טבעי (שנוצרות בסביבה לא צפויה ולא מוגבלת), ובודקת את היכולת של המודלים לבצע משימות של הסקת שפה טבעית בעולם האמיתי.

ניקוד חלקי

וינוגראנדה

נקודת ההשוואה של Winogrande בודקת את היכולת של מודל שפה לפתור משימות לא חד-משמעיות של מילוי מקום ריק באמצעות אופציות בינאריות, ולצורך כך צריך לחשוב בהיגיון כללי.

חבטות 7

מנהלי תגובות (CQA)

נקודת ההשוואה של CQA מודדת את הביצועים של מודלים של שפה במענה על שאלות אמריקאיות, באמצעות סוגים שונים של ידע מקובל.

בקרת איכות (OBQA)

נקודת ההשוואה של OBQA מודדת את היכולת של מודל שפה לבצע מענה מתקדם לשאלות באמצעות חשיבה רב-שלבית, ידע מעשי והבנת טקסט עשיר, על פי מודל לאחר מבחנים של ספרים פתוחים.

ARC-e

נקודת ההשוואה של ARC-e בוחנת את הכישורים המתקדמים של מודל השפה למענה לשאלות על שאלות מדעיות אמיתיות ברמת בית הספר היסודי.

ARC-c

נקודת ההשוואה ARC-c היא קבוצת משנה ממוקדת יותר של מערך הנתונים ARC-e, והיא מכילה רק שאלות שהתשובות עליהן שגויות באמצעות אלגוריתמים נפוצים (בסיס אחזור ומופע משותף של מילים).

חבטה

TriviaQA

נקודת ההשוואה של TriviaQA נבדקת על ידי שלשות מיומנויות הבנת הקריאה באמצעות שלשות.

Pass@1

HumanEval

נקודת ההשוואה של HumanEval בודקת את היכולות ליצירת קוד של מודל שפה, על ידי הערכה אם הפתרונות שלו עומדים בבדיקות של יחידות פונקציונליות בבעיות תכנות.

3 חבטות

MBPP

נקודת ההשוואה של MBPP בודקת את היכולת של מודל שפה לפתור בעיות תכנות בסיסיות ב-Python, תוך התמקדות במושגי תכנות בסיסיים ובשימוש סטנדרטי בספרייה.

Maj@1

GSM8K

נקודת ההשוואה של GSM8K בוחן את היכולת של מודל שפה לפתור בעיות מתמטיות ברמת בית הספר, שדורשות לעתים קרובות מספר שלבים של הסקת מסקנות.

חבטה 4

MATH

נקודת ההשוואה של MATH מיועדת להעריך את היכולת של מודל שפה לפתור בעיות מילוליות מורכבות, שנדרשות חשיבה, פתרון בעיות רב-שלבי והבנה של מושגים מתמטיים.

AGIEval

נקודת ההשוואה של AGIEval בודקת את האינטליגנציה הכללית של מודל שפה באמצעות שאלות שנגזרות מבחינות בעולם האמיתי, שנועדו להעריך יכולות אינטלקטואליות של אדם (מבחני כניסה לאוניברסיטה, מבחנים למשפטים וכו').

BBH

נקודת ההשוואה BBH (BIG-Bench Hard) מתמקדת במשימות שנחשבות מעבר ליכולת של מודלי השפה הנוכחיים, ובודקת את המגבלות שלהן בתחומים שונים של חשיבה והבנה.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

‏Gemma

64.3

‏Gemma

42.3

מיסטרל

38

LLAMA-2

13ב

54.8

LLAMA-2

45.3

‏Gemma

81.2

‏Gemma

71.4

מיסטרל

81.0

LLAMA-2

13ב

80.7

LLAMA-2

77.2

‏Gemma

81.2

‏Gemma

77.3

מיסטרל

82.2

LLAMA-2

13ב

80.5

LLAMA-2

78.8

‏Gemma

51.8

‏Gemma

49.7

מיסטרל

47.0*

LLAMA-2

13ב

21.12

LLAMA-2

48.3

‏Gemma

83.2

‏Gemma

69.42

מיסטרל

83.2*

LLAMA-2

13ב

81.7

LLAMA-2

77.4

‏Gemma

72.3

‏Gemma

65.4

מיסטרל

74.2

LLAMA-2

13ב

72.8

LLAMA-2

69.2

‏Gemma

71.3

‏Gemma

65.3

מיסטרל

66.3*

LLAMA-2

13ב

67.3

LLAMA-2

57.8

‏Gemma

52.8

‏Gemma

47.8

מיסטרל

52.2

LLAMA-2

13ב

57.0

LLAMA-2

58.6

‏Gemma

81.5

‏Gemma

73.2

מיסטרל

80.5

LLAMA-2

13ב

77.3

LLAMA-2

75.2

‏Gemma

53.2

‏Gemma

42.06

מיסטרל

54.9

LLAMA-2

13ב

49.4

LLAMA-2

45.9

‏Gemma

63.4

‏Gemma

53.2

מיסטרל

38

LLAMA-2

13ב

79.6

LLAMA-2

72.1

‏Gemma

32.3

‏Gemma

22.0

מיסטרל

26.2

LLAMA-2

13ב

18.3

LLAMA-2

12.8

‏Gemma

44.4

‏Gemma

29.2

מיסטרל

40.2*

LLAMA-2

13ב

30.6

LLAMA-2

20.8

‏Gemma

46.4

‏Gemma

17.7

מיסטרל

35.4*

LLAMA-2

13ב

28.7

LLAMA-2

14.6

‏Gemma

24.3

‏Gemma

11.8

מיסטרל

12.7

LLAMA-2

13ב

3.9

LLAMA-2

2.5

‏Gemma

41.7

‏Gemma

24.2

מיסטרל

41.2*

LLAMA-2

13ב

39.1

LLAMA-2

29.3

‏Gemma

137.1

‏Gemma

35.2

מיסטרל

56.1*

LLAMA-2

13ב

39.4

LLAMA-2

32.6

*עיינו בדוח הטכני לקבלת פרטים על ביצועים בשילוב עם שיטות אחרות

פיתוח של בינה מלאכותית באופן אחראי

אחריות במרכז

הנתונים עוברים אימון על סמך נתונים שנאספו בקפידה ומתבצעת כוונונים לשמירה על הבטיחות, ועוזרים להעצים את פיתוח הבינה המלאכותית בצורה בטוחה ואחראית באמצעות מודלים של Gemma.

הערכה אמינה ושקופה

בזכות ההערכות המקיפות והדיווח שקוף, אפשר לגלות את מגבלות המודלים לאימוץ גישה אחראית בכל תרחיש לדוגמה.

הנעת פיתוח אחראי

הכלי Resible AI Generative AI Toolkit עוזר למפתחים לתכנן וליישם שיטות מומלצות בנושא בינה מלאכותית גנרטיבית.

הסמל של Google Cloud

מותאם ל-Google Cloud

בעזרת מודלים של Gemma ב-Google Cloud, תוכלו להתאים אישית את המודל באופן מעמיק לצרכים הספציפיים שלכם, באמצעות הכלים המנוהלים באופן מלא של Vertex AI או אפשרות הניהול העצמי של GKE, ולפרוס אותו בתשתית גמישה וחסכונית שמותאמת ל-AI.

האצת המחקר האקדמי בעזרת קרדיטים ל-Google Cloud

לאחרונה הסתיימה תקופת המחקר בתוכנית המחקר האקדמי, והתוכנית מעניקה קרדיטים ל-Google Cloud כתמיכה בחוקרים שדוחפים את גבולות הגילוי המדעי באמצעות מודלים של Gemma. אנחנו מצפים בקוצר רוח לראות את המחקר פורץ הדרך שיתעורר בעקבות היוזמה הזו.

מומלץ לעקוב אחרי הזדמנויות עתידיות כדי לקדם את המחקר שלך ב-Google Cloud.

הצטרפות לקהילה

להתחבר, לחקור ולשתף את הידע שלכם עם אחרים בקהילת המודלים של למידת המכונה.

מתחרים כדי לבנות את העוזר הדיגיטלי הטוב ביותר ב-AI למהנדסי למידת המכונה

Kaggle מארחת תחרות אתגר שמאתגרת משתתפים להשתמש במודלים של Gemma כדי לפתח את העוזרים הדיגיטליים הטובים ביותר למשימות הנדסה של למידת מכונה. הזוכים יוכרזו ב-Google I/O.

הצטרפות לתחרות
גביע של תחרות קגל