مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول

توفر مجموعة الأدوات هذه موارد لتطبيق أفضل الممارسات للاستخدام المسؤول للنماذج المفتوحة مثل نماذج جيما، بما في ذلك:

  • الإرشادات المتعلقة بوضع سياسات السلامة، وضبط الأمان، ومصنِّفات السلامة، وتقييم النماذج.
  • أداة تعلُّم التفسيرات الفورية (LIT) للتحقيق في سلوك "جيما" ومعالجة المشاكل المحتملة
  • يشير ذلك المصطلح إلى منهجية لإنشاء مُصنِّفات أمان قوية تتضمّن أقل عدد من الأمثلة.

يركّز هذا الإصدار من مجموعة الأدوات على نماذج تحويل النص إلى نص باللغة الإنجليزية فقط. يمكنك تقديم ملاحظات لجعل مجموعة الأدوات هذه أكثر فائدة من خلال رابط آلية الملاحظات أسفل الصفحة.

عند الإنشاء باستخدام "جيما"، يجب أن تتبع نهجًا شاملاً للمسئولية والنظر في جميع التحديات المحتملة على مستوى التطبيق والنموذج. تتناول مجموعة الأدوات هذه تقنيات المخاطر وتخفيف الأثر لمعالجة الأمان والخصوصية والإنصاف والمساءلة.

رسم بياني وظيفي للممارسات المسؤولة الخاصة بالذكاء الاصطناعي

اطّلِع على بقية مجموعة الأدوات هذه للحصول على مزيد من المعلومات والإرشادات:

المؤلفون والمساهمون

تعتمد مجموعة الأدوات هذه على أبحاث وأدوات من فِرق عمل مختلفة في Google، بما في ذلك هؤلاء المؤلفون والمساهمون:

لودوفيك بيران، كاثي ماير هيلسترن، لوكاس ديكسون، رينا جانا، أوسكار فاهلتينيز، كليمنت كريبي، راين مولينز، إيان تيني، تيد كليمينكو، شري بانديا، نيثوم تايين، ماكنزي توماس، هايدن شافر، هايدن دوتار،