ערכת כלים ל-AI גנרטיבי אחראי
כלים והנחיות לעיצוב, לפיתוח ולבדיקה של מודלים פתוחים של AI בצורה אחראית.
עיצוב אפליקציות אחראי
להגדיר כללים להתנהגות המודל, ליצור אפליקציה בטוחה ואחראית ולשמור על תקשורת שקופה עם המשתמשים.
התאמה לבטיחות
טכניקות לניפוי באגים באמצעות הנחיות והדרכה לכוונון ותיקון שגיאות (RLHF) כדי להתאים את מודלי ה-AI למדיניות הבטיחות.
הערכת מודל
בעזרת ה-LLM Comparator תוכלו לקבל הנחיות ונתונים לביצוע הערכה חזקה של מודל מבחינת הבטיחות, ההגינות והעובדות.
אמצעי הגנה
פריסת סיווגים של בטיחות באמצעות פתרונות מוכנים או פיתוח סיווגים משלכם בעזרת מדריכים מפורטים.
תכנון גישה אחראית
זיהוי יזום של סיכונים פוטנציאליים באפליקציה והגדרת גישה ברמת המערכת לפיתוח אפליקציות בטוחות ואחראיות למשתמשים.
שנתחיל?
הגדרת מדיניות ברמת המערכת
קובעים איזה סוג תוכן האפליקציה צריכה ליצור ואיזה סוג תוכן אסור ליצור.
עיצוב שמתמקד בבטיחות
מגדירים את הגישה הכוללת להטמעת שיטות להקטנת סיכונים, תוך התחשבות בפשרות טכניות ועסקיות.
שקיפות
תיעוד הגישה שלכם באמצעות ארטיפקטים כמו כרטיסי מודלים.
מערכות AI מאובטחות
כדאי להביא בחשבון סיכוני אבטחה ספציפיים ל-AI ושיטות תיקון שמודגשות במסגרת הרעיונית Secure AI Framework (SAIF).
יישור המודל
התאמת המודל למדיניות הבטיחות הספציפית שלכם באמצעות שיטות של הנחיות והתאמה.
שנתחיל?
יצירת הנחיות בטוחות וחזקות יותר
בעזרת הספרייה Model Alignment תוכלו להשתמש במודלים גדולים של שפה (LLMs) כדי ליצור תבניות הנחיה בטוחות יותר.
התאמת המודלים לשיפור הבטיחות
כדי לשלוט בהתנהגות המודל, אפשר לשנות את המודל כך שיתאים למדיניות הבטיחות ולמדיניות התוכן שלכם.
בדיקת ההנחיות של המודל
איך יוצרים הנחיות בטוחות ומועילות באמצעות שיפורים חוזרים באמצעות הכלי לניתוח הלמידה (LIT)?
הערכת המודל
בעזרת ההנחיות והכלים שלנו, תוכלו להעריך את סיכוני המודל מבחינת בטיחות, הוגנות ודיוק עובדתי.
שנתחיל?
LLM Comparator
לבצע הערכות מקבילות באמצעות LLM Comparator כדי להעריך באופן איכותי את ההבדלים בתשובות בין מודלים, בין הנחיות שונות לאותו מודל או אפילו בין התאמות שונות של מודל.
הנחיות להערכת מודל
כאן תוכלו לקרוא על שיטות מומלצות לניתוח חולשות אבטחה (red teaming) ולהעריך את המודל שלכם בהשוואה למדדים אקדמיים כדי להעריך את הנזקים בנושאי בטיחות, הוגנות עובדתית.
הגנה באמצעות אמצעי הגנה
סינון הקלט והפלט של האפליקציה והגנה על המשתמשים מפני תוצאות לא רצויות.
שנתחיל?
טקסט SynthID
כלי להוספת סימני מים ולזיהוי טקסט שנוצר על ידי המודל.
ShieldGemma
סדרה של סיווגים של בטיחות תוכן, שנוצרו על סמך Gemma 2, וזמינים בשלושה גדלים: 2B, 9B ו-27B.
מסווגים גמישים
יצירת סיווגים של בטיחות למדיניות הספציפית שלכם באמצעות התאמה יעילה של פרמטרים (PET) עם מעט נתוני אימון יחסית
בדיקות בטיחות של AI
מוודאים שה-AI עומד בדרישות הבטיחות של מדיניות התוכן באמצעות ממשקי API ולוחות בקרה.
שירות ניהול טקסט
זיהוי רשימה של מאפייני בטיחות, כולל נושאים וקטגוריות שונים שעשויים להיות מזיקים או רגישים, באמצעות Google Cloud Natural Language API שזמין בחינם במסגרת מגבלת שימוש מסוימת.
Perspective API
זיהוי תגובות 'רעילות' באמצעות ממשק ה-API החינמי של Google Jigsaw, כדי לצמצם את הרעילות באינטרנט ולהבטיח דיאלוג בריא.