מודלים פתוחים של Gemma
משפחה של מודלים חד-פעמיים קלילים בעיצוב אומנותי שנוצרו מאותם מחקר וטכנולוגיה ששימשו ליצירת המודלים של Gemini
חדש:
Gemma 2
Gemma 2, שתוכננה מחדש כדי לאפשר ביצועים גדולים ויעילות חסרת תקדים, מבצעת אופטימיזציה להסקת מסקנות מהירה במיוחד בעזרת מגוון חומרה.
5 שוטים
MMLU
בנצ׳מרק של MMLU מודדים את היקף הידע ויכולת פתרון הבעיות שמודלים גדולים של שפה רוכשים במהלך אימון מראש.
25 תמונות
ARC-C
נקודת ההשוואה ARC-c היא קבוצת משנה ממוקדת יותר של מערך הנתונים ARC-e, שמכילה רק שאלות שנענו באופן שגוי על ידי אלגוריתמים נפוצים (בסיס אחזור ומופע מילים).
5 שוטים
GSM8K
במדד GSM8K נבדקת היכולת של מודל שפה לפתור בעיות מתמטיות ברמת בית הספר היסודי, שבדרך כלל דורשות כמה שלבים של חשיבה.
3-5 שוטים
AGIEval
בעזרת מדד AGIEval אפשר לבדוק את האינטליגנציה הכללית של מודל שפה באמצעות שאלות שמבוססות על בחינות בעולם האמיתי שנועדו להעריך את היכולות האינטלקטואליות של בני אדם.
3 שוטים, קוטל
BBH
נקודת ההשוואה BBH (BIG-Bench Hard) מתמקדת במשימות מעבר ליכולת של מודלי השפה הנוכחיים, ובודקת את הגבולות שלהן במגוון תחומים של הסקת מסקנות והבנה.
3 תמונות, F1
להתכופף
DROP הוא נקודת השוואה להבנת הנקרא שדורשת נימוק לא רציף על פני פסקאות.
5-shot
Winogrande
נקודת ההשוואה ב-Winogrande בודקת את היכולת של מודל שפה לפתור משימות לא חד-משמעיות מסוג 'מילוי ריק' באמצעות אופציות בינאריות, שדורשות הסקת מסקנות כללית.
10 שוטים
HellaSwag
בעזרת מדד HellaSwag אפשר לבדוק את היכולת של מודל שפה להבין וליישם את ההיגיון הבריא, על ידי בחירת הסיום הכי לוגי לסיפור.
4 שוטים
מתמטיקה
MATH מעריך את היכולת של מודל שפה לפתור בעיות מילוליות מורכבות מתמטיות, המחייבות הסקת מסקנות, פתרון בעיות מרובה שלבים והבנה של מושגים מתמטיים.
0-shot
ARC-e
בעזרת מדד ARC-e אפשר לבדוק את היכולות המתקדמות של מודל שפה לענות על שאלות באמצעות שאלות אמריקאיות אמיתיות בנושאי מדע ברמת בית הספר היסודי.
אפס בעיטות
PIQA
נקודת ההשוואה של PIQA בודקת את היכולת של מודל שפה להבין וליישם ידע פיזי בריא באמצעות מענה על שאלות לגבי אינטראקציות פיזיות יומיומיות.
אפס בעיטות
SIQA
נקודת ההשוואה של SIQA בודקת את ההבנה של מודל שפה לגבי אינטראקציות חברתיות והיגיון חברתי, באמצעות שאילת שאלות לגבי פעולות של אנשים וההשלכות החברתיות שלהם.
אפס בעיטות
Boolq
נקודת ההשוואה ב-BolQ בודקת את היכולת של מודל שפה לענות על שאלות "כן" ו"לא" באופן טבעי, ובודקת את היכולת של המודלים לבצע משימות של הסקת מסקנות משפה טבעית בעולם האמיתי.
5 שוטים
TriviaQA
בנצ'מרק של TriviaQA ניתן לבדוק את כישורי הבנת הקריאה עם שלשות עדות לשאלה.
5-shot
NQ
נקודת ההשוואה ב-NQ (שאלות טבעיות) בודקת את היכולת של מודל שפה למצוא ולהבין תשובות בתוך מאמרים שלמים בוויקיפדיה, באמצעות הדמיית תרחישים של מענה לשאלות בעולם האמיתי.
pass@1
HumanEval
בעזרת מדד HumanEval אפשר לבדוק את היכולות של מודל שפה ליצירת קוד. לשם כך, המערכת בודקת אם הפתרונות שלו עוברים בדיקות יחידה פונקציונליות לבעיות תכנות.
שלשות
MBPP
במדד MBPP נבדקת היכולת של מודל שפה לפתור בעיות תכנות בסיסיות ב-Python, תוך התמקדות במושגי תכנות בסיסיים ובשימוש בספריות סטנדרטיות.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8ב
Gemma 1
7 מיליארד
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8ב
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8ב
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
LLAMA 3
8B
Gemma 1
7 מיליארד
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
לאמה 3
8ב
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8B
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
*אלה מדדי העזר של המודלים שהוכשרו מראש. בדוח הטכני מפורט מידע על הביצועים של שיטות אחרות.
משפחת הדגמים Gemma
מדריכים למתחילים למפתחים
מדריכים למתחילים לשותפים
Gemma Cookbook
בואו לעיין באוסף מתכונים מעשיים ודוגמאות שמציגים את הכוח והמגוון של השימוש ב-Gemma למשימות כמו הוספת כיתוב לתמונה באמצעות PaliGemma, יצירת קוד באמצעות CodeGemma ובניית צ'אט בוטים עם מודלים עדינים של Gemma.
פיתוח אחראי של AI
אחריות מובנית
המודלים הוכשרו מראש על נתונים שנאספו בקפידה, ונוספה להם התאמה לשמירה על הבטיחות. כך אפשר לפתח AI בטוח ואחראי על סמך מודלים של Gemma.
בדיקה קפדנית ושקופה
הערכות מקיפות ודוחות שקופים חושפים את המגבלות של המודלים, כדי שתוכלו לנקוט גישה אחראית לכל תרחיש לדוגמה.
פיתוח אחראי
ערכת הכלים האחריות של בינה מלאכותית גנרטיבית תומכת במפתחים לפתח ולהטמיע שיטות מומלצות לשמירה על בינה מלאכותית (AI).
מותאמים ל-Google Cloud
בעזרת מודלים של Gemma ב-Google Cloud, אפשר להתאים אישית את המודל בצורה יסודית לצרכים הספציפיים שלכם באמצעות הכלים המנוהלים במלואם של Vertex AI או האפשרות העצמאית של GKE, ולפרוס אותו בתשתית גמישה וחסכונית שמותאמת ל-AI.
קידום מחקר אקדמי באמצעות קרדיטים ל-Google Cloud
לאחרונה הסתיימה תקופת הגשת הבקשות לתוכנית המחקר האקדמי, והענקת קרדיטים ב-Google Cloud לתמיכה בחוקרים שמרחיבים את גבולות הגילוי המדעי באמצעות מודלים של Gemma. אנחנו שמחים לראות את המחקר הפורץ דרך שייצא מהיוזמה הזו.
הצטרפות לקהילה
מתחברים, חוקרים ומשתפים את הידע שלכם עם אחרים בקהילת המודלים של למידת מכונה.