مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤولة
أدوات وإرشادات لتصميم نماذج الذكاء الاصطناعي المفتوحة وإنشائها وتقييمها بشكلٍ مسؤول.
تصميم التطبيقات بشكل مسؤول
حدِّد قواعد لسلوك النماذج، وأنشئ تطبيقًا آمنًا ومساءلاً، والحفاظ على تواصل شفاف مع المستخدمين.
التوافق مع الأمان
تعرَّف على تقنيات تصحيح أخطاء الطلبات والإرشادات المتعلّقة بالتحسين وRLHF لمواءمة نماذج الذكاء الاصطناعي مع سياسات السلامة.
تقييم النموذج
يمكنك العثور على إرشادات وبيانات لإجراء تقييم نموذجي قوي للسلامة والعدالة والحقائق باستخدام أداة مقارنة النماذج اللغوية الكبيرة.
التدابير الوقائية
وبإمكانك نشر مصنِّفات أمان باستخدام حلول جاهزة أو إنشاء أدوات تصنيف خاصة بك من خلال برامج تعليمية مفصَّلة.
تصميم نهج مسئول
يمكنك تحديد المخاطر المحتملة لتطبيقك بشكل استباقي وتحديد نهج على مستوى النظام لبناء تطبيقات آمنة ومسؤولة للمستخدمين.
البدء
تحديد السياسات على مستوى النظام
حدِّد نوع المحتوى الذي يجب أن ينشئه تطبيقك ونوع المحتوى الذي يجب ألا ينشئه.
مراعاة السلامة عند التصميم
حدد نهجك العام لتنفيذ تقنيات تخفيف المخاطر، مع الأخذ في الاعتبار المفاضلات الفنية والتجارية.
التحلّي بالشفافية
شارِك أسلوبك باستخدام عناصر مثل بطاقات النماذج.
أنظمة الذكاء الاصطناعي الآمنة
ننصحك بمراعاة المخاطر الأمنية المتعلقة بالذكاء الاصطناعي وطرق علاجها الموضَّحة في "إطار عمل الذكاء الاصطناعي الآمن" (SAIF).
محاذاة النموذج
احرص على مواءمة نموذجك مع سياسات الأمان المحدّدة باستخدام أساليب ضبط الطلب والضبط.
البدء
صياغة طلبات أكثر أمانًا وفعالية
استخدِم إمكانات النماذج اللغوية الكبيرة للمساعدة في إنشاء نماذج طلبات أكثر أمانًا باستخدام مكتبة "مواءمة النماذج".
ضبط النماذج لتعزيز الأمان
يمكنك التحكّم في سلوك النموذج من خلال ضبطه بما يتوافق مع سياسات السلامة والمحتوى.
التحقيق في طلبات النماذج
أنشئ طلبات آمنة ومفيدة من خلال التحسين المتكرّر باستخدام أداة تفسير التعلّم (LIT).
تقييم النموذج
تقييم مخاطر النماذج في ما يتعلق بالسلامة والعدالة والدقة في عرض الحقائق باستخدام الإرشادات والأدوات التي نقدّمها
البدء
أداة مقارنة النصوص المستندة إلى نماذج لغوية كبيرة
استخدِم أداة مقارنة النماذج اللغوية الكبيرة في تقييم الاختلافات في الردود بين النماذج، أو الطلبات المختلفة للنموذج نفسه، أو حتى التعديلات المختلفة على نموذج معيّن.
إرشادات تقييم النماذج
تعرَّف على أفضل الممارسات المتعلّقة بفريق المهاجمين الاختباري وتقييم نموذجك بالاستناد إلى مقاييس الأداء الأكاديمي لتقييم الأضرار المتعلّقة بالسلامة والعدالة والحقائق.
توفير الحماية باستخدام تدابير الوقاية
فلترة مدخلات تطبيقك ومخارجه وحمايته من النتائج غير المرغوب فيها
البدء
نص معرِّف الموالِف
أداة لإضافة علامات مائية ورصد النص الذي ينشئه نموذجك
ShieldGemma
سلسلة من مصنِّفات أمان المحتوى، التي تم تصميمها استنادًا إلى Gemma 2، ومتاحة بثلاثة أحجام: 2B و9B و27B
المصنّفات الرشيقة
إنشاء مصنِّفات أمان لسياساتك المحدَّدة باستخدام ميزة "ضبط كفاءة المعلَمات" (PET) مع القليل من بيانات التدريب
يتحقّق من أمان الذكاء الاصطناعي
تأكَّد من امتثال أمان الذكاء الاصطناعي لسياسات المحتوى باستخدام واجهات برمجة التطبيقات ولوحات بيانات المراقبة.
خدمة الإشراف على النصوص
يمكنك رصد قائمة بسمات السلامة، بما في ذلك الفئات والمواضيع المختلفة التي يُحتمل أن تكون ضارة أو حسّاسة، باستخدام Google Cloud Natural Language API المتاحة مجانًا ضمن حدّ استخدام معيّن.
Perspective API
تحديد "اللغة غير اللائقة" بالتعليقات مع واجهة برمجة التطبيقات Google Jigsaw API المجانية هذه للتخفيف من انتشار اللغة غير اللائقة على الإنترنت وضمان حوار متحضر.