ערכת כלים של בינה מלאכותית גנרטיבית ואחראית
כלים והנחיות לעיצוב, לפיתוח ולבדיקה של מודלים פתוחים של AI בצורה אחראית.
עיצוב אפליקציות אחראי
להגדיר כללים להתנהגות המודל, ליצור אפליקציה בטוחה ואחראית ולשמור על תקשורת שקופה עם המשתמשים.
יישור בטיחות
טכניקות לניפוי באגים בזמן אמת והנחיות לכוונון ותיקון שגיאות (RLHF) כדי להתאים את מודלי ה-AI למדיניות הבטיחות.
הערכת מודל
בעזרת כלי ההשוואה של LLM, אפשר למצוא הנחיות ונתונים כדי לבצע הערכה יעילה של המודל בנוגע לבטיחות, הוגנות ועובדות.
אמצעי הגנה
פריסת סיווגים של בטיחות באמצעות פתרונות מוכנים או פיתוח סיווגים משלכם בעזרת מדריכים מפורטים.
תכנון גישה אחראית
תוכלו לזהות באופן יזום את הסיכונים הפוטנציאליים של האפליקציה ולהגדיר גישה ברמת המערכת, כדי לפתח אפליקציות בטוחות ואחראיות למשתמשים.
שנתחיל?
הגדרת מדיניות ברמת המערכת
קובעים איזה סוג תוכן האפליקציה צריכה ליצור ואיזה סוג תוכן אסור ליצור.
עיצוב שמתמקד בבטיחות
להגדיר את הגישה הכוללת שלכם להטמעה של שיטות לצמצום סיכונים, תוך התחשבות בשיקולי ביצועים טכניים ועסקיים.
שקיפות
תוכלו להסביר את הגישה שלכם באמצעות פריטי מידע שנוצרו בתהליך הפיתוח (Artifact), כמו כרטיסי מודל.
מערכות AI מאובטחות
שימוש בסיכוני אבטחה ספציפיים ל-AI ובשיטות תיקון שמודגשים ב-Secure AI Framework (SAIF).
יישור המודל
התאימו את המודל למדיניות הבטיחות הספציפית שלכם באמצעות שיטות של הנחיות וכוונון.
שנתחיל?
יצירת הנחיות בטוחות וחזקות יותר
נעזרים ביכולות המתקדמות של מודלים גדולים של שפה כדי ליצור תבניות בטוחות יותר להנחיות בעזרת הספרייה 'יישור מודלים'.
התאמת המודלים לשיפור הבטיחות
כדי לשלוט בהתנהגות המודל, מכווננים את המודל כך שיתאים למדיניות הבטיחות והתוכן.
בדיקת ההנחיות של המודל
בעזרת הכלי לחיזוי למידה (LIT) אפשר ליצור הנחיות בטוחות ושימושיות באמצעות שיפור איטרטיבי.
הערכת המודל
תוכלו להעריך את סיכוני המודל בנוגע לבטיחות, הוגנות ודיוק עובדתי בעזרת ההנחיות והכלים שלנו.
שנתחיל?
LLM Comparator
לבצע הערכות מקבילות באמצעות LLM Comparator כדי להעריך באופן איכותי את ההבדלים בתשובות בין מודלים, בין הנחיות שונות לאותו מודל או אפילו בין התאמות שונות של מודל.
הנחיות להערכת מודל
כאן תוכלו לקרוא על שיטות מומלצות לניתוח חולשות אבטחה (red teaming) ולהעריך את המודל שלכם בהשוואה למדדים אקדמיים כדי להעריך את הנזקים בנושאי בטיחות, הוגנות עובדתית.
הגנה באמצעות אמצעי הגנה
סינון הקלט והפלט של האפליקציה והגנה על המשתמשים מפני תוצאות לא רצויות.
שנתחיל?
טקסט SynthID
כלי להוספת סימני מים ולזיהוי טקסט שנוצר על ידי המודל שלכם.
ShieldGemma
סדרה של סיווגים של בטיחות תוכן, שנוצרו על סמך Gemma 2, וזמינים בשלושה גדלים: 2B, 9B ו-27B.
מסווגים גמישים
יצירת סיווגים של בטיחות למדיניות הספציפית שלכם באמצעות התאמה יעילה של פרמטרים (PET) עם כמות קטנה יחסית של נתוני אימון
בדיקות בטיחות של AI
שימוש בממשקי API ובלוחות בקרה למעקב כדי להבטיח תאימות של AI למדיניות התוכן שלכם.
שירות ניהול טקסט
זיהוי רשימה של מאפייני בטיחות, כולל נושאים וקטגוריות שונים שעשויים להיות מזיקים או רגישים, באמצעות Google Cloud Natural Language API שזמין בחינם עד למגבלת שימוש מסוימת.
ממשק API של Perspective
זיהוי תגובות 'רעילות' באמצעות ממשק ה-API החינמי של Google Jigsaw, כדי לצמצם את הרעילות באינטרנט ולהבטיח דיאלוג בריא.