مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤولة
أدوات وإرشادات لتصميم نماذج الذكاء الاصطناعي المفتوحة وإنشائها وتقييمها بشكلٍ مسؤول.
تصميم التطبيقات بشكل مسؤول
يمكنك تحديد قواعد لسلوك النموذج، وإنشاء تطبيق آمن وخاضع للمساءلة، والحفاظ على تواصل شفاف مع المستخدمين.
التوافق مع الأمان
تعرَّف على أساليب تصحيح أخطاء الطلبات وإرشادات حول ضبط رفاهية المرآب وربطه بنماذج الذكاء الاصطناعي بما يتوافق مع سياسات الأمان.
تقييم النموذج
اطّلِع على الإرشادات والبيانات اللازمة لتقييم نموذج فعّال من أجل السلامة والإنصاف والواقعية باستخدام أداة مقارنة "النموذج اللغوي الكبير" (LLM).
الوقاية
وبإمكانك نشر مصنِّفات أمان باستخدام حلول جاهزة أو إنشاء أدوات تصنيف خاصة بك من خلال برامج تعليمية مفصَّلة.
تصميم نهج مسئول
حدِّد بشكل استباقي المخاطر المحتملة لتطبيقك وحدِّد نهجًا على مستوى النظام لإنشاء تطبيقات آمنة ومسؤولة للمستخدمين.
البدء
تحديد السياسات على مستوى النظام
حدِّد نوع المحتوى الذي يجب أن ينشئه تطبيقك والمحتوى الذي يجب ألا ينشئه.
مراعاة السلامة عند التصميم
حدد نهجك العام لتنفيذ تقنيات تخفيف المخاطر، مع الأخذ في الاعتبار المقايضات الفنية والتجارية.
التحلّي بالشفافية
شارِك أسلوبك باستخدام عناصر مثل بطاقات النماذج.
أنظمة الذكاء الاصطناعي الآمنة
ننصحك بمراعاة المخاطر الأمنية المتعلقة بالذكاء الاصطناعي وطرق علاجها الموضَّحة في "إطار عمل الذكاء الاصطناعي الآمن" (SAIF).
محاذاة النموذج
احرص على مواءمة نموذجك مع سياسات الأمان المحدّدة باستخدام أساليب ضبط الطلب والضبط.
البدء
التحقّق من طلبات النماذج
يمكنك إنشاء طلبات آمنة ومفيدة من خلال التحسين التكراري باستخدام أداة "تفسير التعلُّم" (LIT).
ضبط النماذج للحفاظ على السلامة
يمكنك التحكّم في سلوك النموذج من خلال ضبطه ليتوافق مع سياسات الأمان والمحتوى.
تقييم النموذج
يمكنك تقييم مخاطر النموذج بشأن السلامة والإنصاف والدقة الواقعية باستخدام إرشاداتنا وأدواتنا.
البدء
أداة مقارنة النماذج اللغوية الكبيرة
استخدِم أداة مقارنة النماذج اللغوية الكبيرة في تقييم الاختلافات في الردود بين النماذج، أو الطلبات المختلفة للنموذج نفسه، أو حتى التعديلات المختلفة على نموذج معيّن.
إرشادات تقييم النموذج
تعرَّف على أفضل ممارسات التعاون باللون الأحمر وقيِّم نموذجك وفقًا للمعايير الأكاديمية لتقييم الأضرار المتعلقة بالأمان والإنصاف والواقعية.
توفير الحماية باستخدام تدابير الوقاية
يمكنك فلترة مدخلات تطبيقك ومخرجاته، وحماية المستخدمين من النتائج غير المرغوب فيها.
البدء
ShieldGemma
سلسلة من مصنِّفات أمان المحتوى، التي تم تصميمها استنادًا إلى Gemma 2، ومتاحة بثلاثة أحجام: 2B و9B و27B
مصنِّفات أجايل
إنشاء مصنِّفات أمان لسياساتك المحدَّدة باستخدام ميزة "ضبط كفاءة المعلَمات" (PET) مع القليل من بيانات التدريب
خدمة الإشراف على النصوص
يمكنك رصد قائمة بسمات الأمان، بما في ذلك الفئات والمواضيع المختلفة التي يُحتمل أن تكون ضارة والتي يمكن اعتبارها حسّاسة، وذلك باستخدام واجهة برمجة التطبيقات Google Cloud Natural Language API هذه والمتوفّرة مجانًا عندما يقل الحد الأقصى لاستخدام التطبيق عن حدّ معيّن.
واجهة برمجة التطبيقات Perspective
تحديد "اللغة غير اللائقة" بالتعليقات مع واجهة برمجة التطبيقات Google Jigsaw API المجانية هذه للتخفيف من انتشار اللغة غير اللائقة على الإنترنت وضمان حوار متحضر.