ערכת הכלים של בינה מלאכותית גנרטיבית אחראית

ערכת הכלים הזו מספקת משאבים ליישום שיטות מומלצות לשימוש אחראי במודלים פתוחים, כמו המודלים של Gemma, כולל:

  • הנחיות להגדרת מדיניות בטיחות, כוונון בטיחות, מסווגי בטיחות והערכת מודלים.
  • כלי הלמידה לפרשנות (LIT) לחקירת ההתנהגות של גמה ולטיפול בבעיות פוטנציאליות.
  • מתודולוגיה לבניית מסווגי בטיחות אמינים עם דוגמאות מינימליות.

הגרסה הזו של ערכת הכלים מתמקדת במודלים של טקסט לטקסט באנגלית בלבד. תוכלו לשלוח משוב כדי שערכת הכלים תהיה מועילה יותר באמצעות הקישור של מנגנון המשוב שבתחתית הדף.

כשמפתחים עם Gemma, צריך לנקוט גישה הוליסטית לגבי אחריות ולשקול את כל האתגרים האפשריים ברמת האפליקציה והמודל. ערכת הכלים הזו כוללת שיטות לשיפור הבטיחות, הפרטיות, ההוגנות ואחריותיות, ועוסק בשיטות לצמצום סיכונים ומיטיגציה.

תרשים פונקציונלי של שיטות אחראיות של בינה מלאכותית

הכנו לכם עוד מידע והדרכה שכלולים בערכת הכלים הזו:

מחברים ושותפים ביצירת התוכן

ערכת הכלים הזו מבוססת על מחקר וכלים מצוותים שונים ב-Google, כולל המחברים והתורמים הבאים:

לודוביק פראן, קאת'י מאייר-הלסטרן, לוקאס דיקסון, רינה יאנה, אוסקר וולטינז, קלמנט קרפי, ריאן מולינס, איאן טני, טד קלימנקו, שרי פנדיה, ניתום תאייין, מקנזי תומס, היידן רימנסי