مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول
أدوات وإرشادات لتصميم نماذج الذكاء الاصطناعي المفتوحة وإنشائها وتقييمها بشكل مسؤول
تصميم التطبيقات بشكل مسؤول
حدِّد قواعد لسلوك النموذج، وأنشئ تطبيقًا آمنًا ومساءلاً، والحفاظ على تواصل شفاف مع المستخدمين.
التوافق مع الأمان
تعرَّف على تقنيات تصحيح أخطاء الطلبات وإرشادات حول ضبط رفاهية المرآب وربطه بنماذج الذكاء الاصطناعي بما يتوافق مع سياسات الأمان.
تقييم النموذج
يمكنك العثور على إرشادات وبيانات لإجراء تقييم نموذجي قوي للسلامة والعدالة والحقائق باستخدام أداة مقارنة النماذج اللغوية الكبيرة.
التدابير الوقائية
يمكنك نشر أدوات تصنيف السلامة باستخدام حلول جاهزة أو إنشاء أدوات تصنيف خاصة بك باستخدام الأدلة التعليمية المفصّلة.
تصميم نهج مسؤول
يمكنك تحديد المخاطر المحتملة لتطبيقك بشكل استباقي وتحديد نهج على مستوى النظام لبناء تطبيقات آمنة ومسؤولة للمستخدمين.
البدء
تحديد السياسات على مستوى النظام
حدِّد نوع المحتوى الذي يجب أن ينشئه تطبيقك والمحتوى الذي يجب ألا ينشئه.
مراعاة السلامة عند التصميم
حدد نهجك العام لتنفيذ تقنيات تخفيف المخاطر، مع الأخذ في الاعتبار المفاضلات الفنية والتجارية.
التحلّي بالشفافية
شارِك أسلوبك باستخدام عناصر مثل بطاقات النماذج.
أنظمة الذكاء الاصطناعي الآمنة
ننصحك بمراعاة المخاطر الأمنية المتعلقة بالذكاء الاصطناعي وطرق علاجها الموضَّحة في "إطار عمل الذكاء الاصطناعي الآمن" (SAIF).
محاذاة النموذج
احرص على مواءمة نموذجك مع سياسات الأمان المحدّدة باستخدام أساليب ضبط الطلب والضبط.
البدء
إنشاء طلبات أكثر أمانًا وفعالية
استخدِم إمكانات النماذج اللغوية الكبيرة للمساعدة في إنشاء نماذج طلبات أكثر أمانًا باستخدام مكتبة "مواءمة النماذج".
ضبط النماذج لتعزيز الأمان
يمكنك التحكّم في سلوك النموذج من خلال ضبطه بما يتوافق مع سياسات السلامة والمحتوى.
التحقيق في طلبات النماذج
أنشئ طلبات آمنة ومفيدة من خلال التحسين المتكرّر باستخدام أداة تفسير التعلّم (LIT).
تقييم النموذج
تقييم مخاطر النماذج في ما يتعلق بالسلامة والعدالة والدقة في عرض الحقائق باستخدام الإرشادات والأدوات التي نقدّمها
البدء
أداة مقارنة النصوص المستندة إلى نماذج لغوية كبيرة
استخدِم أداة مقارنة النماذج اللغوية الكبيرة في تقييم الاختلافات في الردود بين النماذج، أو الطلبات المختلفة للنموذج نفسه، أو حتى التعديلات المختلفة على نموذج معيّن.
إرشادات تقييم النماذج
تعرَّف على أفضل ممارسات التعاون باللون الأحمر وقيِّم نموذجك وفقًا للمعايير الأكاديمية لتقييم الأضرار المتعلقة بالأمان والإنصاف والواقعية.
توفير الحماية باستخدام إجراءات الوقاية
فلترة مدخلات تطبيقك ومخارجه وحمايته من النتائج غير المرغوب فيها
البدء
نص SynthID
أداة لإضافة العلامات المائية ورصد النص الذي ينشئه النموذج
ShieldGemma
سلسلة من مصنّفات أمان المحتوى، تم إنشاؤها استنادًا إلى Gemma 2، وتتوفّر بثلاثة أحجام: 2 بايت و9 بايت و27 بايت.
المصنّفات الرشيقة
إنشاء مصنّفات أمان لسياساتك المحدّدة باستخدام ميزة "الضبط الفعال للمَعلمات" (PET) مع بيانات تدريب قليلة نسبيًا
التحقّق من أمان الذكاء الاصطناعي
يمكنك ضمان امتثال الذكاء الاصطناعي لسياسات المحتوى الخاصة بك من خلال واجهات برمجة التطبيقات ولوحات البيانات للمراقبة.
خدمة الإشراف على النصوص
يمكنك رصد قائمة بسمات السلامة، بما في ذلك الفئات والمواضيع المختلفة التي يُحتمل أن تكون ضارة أو حسّاسة، باستخدام Google Cloud Natural Language API المتاحة مجانًا ضمن حدّ استخدام معيّن.
Perspective API
يمكنك تحديد التعليقات "غير اللائقة" باستخدام واجهة برمجة التطبيقات Google Jigsaw API المجانية هذه للحدّ من انتشار اللغة غير اللائقة والحفاظ على لغة حوار متحضرة.