סקירה כללית על מודלים של Gemma

Gemma היא משפחה של מודלים קלים וחדשניים פתוחים, שנוצרו על סמך אותם מחקר וטכנולוגיה ששימשו ליצירת המודלים של Gemini. גמה, שפותחה על ידי Google DeepMind וצוותים אחרים ברחבי Google, קרויה על שם האגמה הלטינית, שפירושה 'אבן יקרה'. המשקולות של מודל Gemma נתמכות על ידי כלים למפתחים שמקדמים חדשנות, שיתוף פעולה ושימוש אחראי בבינה מלאכותית (AI).

המודלים של Gemma זמינים להפעלה באפליקציות שלכם ובחומרה, במכשירים ניידים או בשירותים מתארחים. תוכלו גם להתאים אישית את המודלים האלה באמצעות שיטות כוונון, כדי שהם יצוינו במשימות החשובות לכם ולמשתמשים שלכם. המודלים של Gemma שואבים השראה ומורשת טכנולוגית ממשפחת המודלים של Gemini, ומטרתם היא לאפשר לקהילת פיתוח ה-AI להתרחב ולקדם.

אפשר להשתמש במודלים של Gemma ליצירת טקסט, אבל אפשר גם לכוונן את המודלים האלה כך שהם יתמכו בביצוע משימות ספציפיות. מודלים ממוקדים של Gemma יכולים לספק לכם ולמשתמשים שלכם פתרונות ממוקדים ויעילים יותר של בינה מלאכותית גנרטיבית. כדאי לעיין במדריך שלנו בנושא כוונון של LoRA ולנסות אותו! אנחנו סקרנים לראות את היצירות שלך עם Gemma.

במסמך הזה תמצאו סקירה כללית של המודלים הזמינים של Gemma ומדריכי הפיתוח, שיעזרו לכם ליישם אותם ולהתאים אותם לאפליקציות ספציפיות.

גדלים ויכולות של הדגמים

המודלים של הבינה המלאכותית (Gemma) זמינים בכמה גדלים, כדי שתוכלו ליצור פתרונות של בינה מלאכותית גנרטיבית בהתאם למשאבי המחשוב הזמינים, ליכולות ולמקומות שבהם אתם רוצים להפעיל אותם. אם אתם לא בטוחים מאיפה להתחיל, נסו להשתמש בגודל הפרמטר 2B כדי להתאים את דרישות המשאבים הנמוכות יותר, וליהנות מגמישות רבה יותר במקום הפריסה שלו.

גודל הפרמטרים קלט פלט גרסאות מותאמות פלטפורמות ייעודיות
2B טקסט טקסט
  • אימון מראש
  • ההוראות כווננו
מכשירים ניידים ומחשבים ניידים
7 מיליארד טקסט טקסט
  • אימון מראש
  • ההוראות כווננו
מחשבים שולחניים ושרתים קטנים

באמצעות התכונה עם גיבויים מרובים של Keras 3.0, תוכלו להריץ את המודלים האלה ב-TensorFlow, ב-JAX וב-PyTorch, או להשתמש בהטמעה המובנית עם JAX (על סמך מסגרת FLAX) וב-PyTorch.

אפשר להוריד את המודלים של Gemma מ-Kaggle Models או לפרוס אותם ב-Vertex AI.

מודלים מכווננים

אפשר לשנות את ההתנהגות של מודלים של Gemma באמצעות אימון נוסף, כדי שהמודל יניב ביצועים טובים יותר במשימות ספציפיות. התהליך הזה נקרא כוונון של מודלים, והשיטה הזו משפרת את היכולת של המודל לבצע משימות ממוקדות, אבל היא גם יכולה להחמיר את המודל במשימות אחרות. לכן, מודלים של Gemma זמינים גם בגרסאות מכווננות וגם בגרסאות שעברו אימון:

  • Pretrained (אימון מראש) – הגרסאות האלה של המודל לא עוברות אימון על משימות ספציפיות או על הוראות מעבר לערכת אימון הנתונים הבסיסית של Gemma. אין לפרוס את המודלים האלה בלי לבצע כוונון.
  • הוראות כוונון – הגרסאות האלה של המודל מאומנות באמצעות אינטראקציות בשפה אנושית, ויכולות להגיב לקלט בשיחות, בדומה לצ'אט בוט.

אני רוצה לנסות

עיינו במדריכים הבאים כדי להתחיל ביצירת פתרונות עם Gemma: