مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول
أدوات وإرشادات لتصميم نماذج الذكاء الاصطناعي المفتوحة وإنشائها وتقييمها بشكل مسؤول
تصميم التطبيقات بشكل مسؤول
حدِّد قواعد لسلوك النموذج، وأنشئ تطبيقًا آمنًا ومساءلاً، والحفاظ على تواصل شفاف مع المستخدمين.
محاذاة السلامة
تعرَّف على تقنيات تصحيح أخطاء الطلبات والإرشادات المتعلّقة بالتحسين وRLHF لمواءمة نماذج الذكاء الاصطناعي مع سياسات السلامة.
تقييم النموذج
يمكنك العثور على إرشادات وبيانات لإجراء تقييم نموذجي قوي للسلامة والعدالة والحقائق باستخدام أداة مقارنة النماذج اللغوية الكبيرة.
التدابير الوقائية
يمكنك نشر أدوات تصنيف السلامة باستخدام حلول جاهزة أو إنشاء أدوات تصنيف خاصة بك باستخدام الأدلة التعليمية المفصّلة.
تصميم نهج مسؤول
يمكنك تحديد المخاطر المحتملة لتطبيقك بشكل استباقي وتحديد نهج على مستوى النظام لبناء تطبيقات آمنة ومسؤولة للمستخدمين.
البدء
تحديد السياسات على مستوى النظام
حدِّد نوع المحتوى الذي يجب أن ينشئه تطبيقك ونوع المحتوى الذي يجب ألا ينشئه.
مراعاة السلامة عند التصميم
حدِّد أسلوبك العام لتنفيذ أساليب الحدّ من المخاطر، مع مراعاة المفاضلات الفنية وتلك المتعلقة بالنشاط التجاري.
التحلّي بالشفافية
وضِّح أسلوبك باستخدام عناصر مثل البطاقات النموذجية.
أنظمة الذكاء الاصطناعي الآمنة
يجب مراعاة المخاطر الأمنية الخاصة بالذكاء الاصطناعي وطرق معالجتها التي تم التأكيد عليها في "إطار عمل الذكاء الاصطناعي الآمن" (SAIF).
محاذاة النموذج
يمكنك مواءمة النموذج مع سياسات السلامة المحدّدة باستخدام تقنيات توجيه المستخدمين وضبط النموذج.
البدء
إنشاء طلبات أكثر أمانًا وفعالية
استخدِم إمكانات النماذج اللغوية الكبيرة للمساعدة في إنشاء نماذج طلبات أكثر أمانًا باستخدام مكتبة "مواءمة النماذج".
ضبط النماذج للحفاظ على الأمان
يمكنك التحكّم في سلوك النموذج من خلال ضبطه بما يتوافق مع سياسات السلامة والمحتوى.
التحقيق في طلبات النماذج
أنشئ طلبات آمنة ومفيدة من خلال التحسين المتكرّر باستخدام "أداة تفسير التعلّم" (LIT).
تقييم النموذج
تقييم مخاطر النماذج في ما يتعلق بالسلامة والعدالة والدقة في عرض الحقائق باستخدام الإرشادات والأدوات التي نقدّمها
البدء
أداة مقارنة النصوص المستندة إلى نماذج لغوية كبيرة
إجراء تقييمات جنبًا إلى جنب باستخدام أداة مقارنة النماذج اللغوية الكبيرة لتقييم الاختلافات في الردود بين النماذج أو طلبات مختلفة للنموذج نفسه أو حتى عمليات ضبط مختلفة للنموذج
إرشادات تقييم النماذج
تعرَّف على أفضل الممارسات المتعلّقة بفريق المهاجمين الاختباري وتقييم نموذجك بالاستناد إلى مقاييس الأداء الأكاديمي لتقييم الأضرار المتعلّقة بالسلامة والعدالة والحقائق.
توفير الحماية باستخدام إجراءات الوقاية
فلترة مدخلات تطبيقك ومخارجه وحمايته من النتائج غير المرغوب فيها
البدء
نص SynthID
أداة لإضافة العلامات المائية ورصد النص الذي ينشئه النموذج
ShieldGemma
سلسلة من مصنّفات أمان المحتوى، تم إنشاؤها استنادًا إلى Gemma 2، وتتوفّر بثلاثة أحجام: 2 بايت و9 بايت و27 بايت.
المصنّفات الرشيقة
إنشاء مصنّفات أمان لسياساتك المحدّدة باستخدام ميزة "الضبط الفعال للمَعلمات" (PET) مع بيانات تدريب قليلة نسبيًا
التحقّق من أمان الذكاء الاصطناعي
تأكَّد من امتثال تكنولوجيات الذكاء الاصطناعي لأمان سياسات المحتوى باستخدام واجهات برمجة التطبيقات ولوحات بيانات المراقبة.
خدمة الإشراف على النصوص
يمكنك رصد قائمة بسمات السلامة، بما في ذلك الفئات والمواضيع المختلفة التي يُحتمل أن تكون ضارة أو حسّاسة، باستخدام Google Cloud Natural Language API المتاحة مجانًا ضمن حدّ استخدام معيّن.
Perspective API
يمكنك تحديد التعليقات "غير اللائقة" باستخدام واجهة برمجة التطبيقات Google Jigsaw API المجانية للحد من انتشار اللغة غير اللائقة على الإنترنت والحفاظ على لغة حوار متحضرة.