يجب أن يتضمّن أيّ نهج مسؤول لتطبيق الذكاء الاصطناعي (AI) ما يلي: سياسات الأمان عناصر الشفافية لتدابير الوقاية، لكن تحمُّل المسؤولية عند استخدام الذكاء الاصطناعي يعني أكثر من قوائم التحقق التالية.
منتجات الذكاء الاصطناعي التوليدي هي منتجات جديدة نسبيًا، ويمكن أن تختلف سلوكيات أحد التطبيقات. أكثر من أشكال البرامج السابقة. لهذا السبب، يجب عليك التحقق من نماذج مستخدمة لفحص أمثلة على سلوك النموذج، والتحقيق في والمفاجآت.
الطلبات هي الواجهة الشاملة للتفاعل مع الذكاء الاصطناعي التوليدي هندسة هذه المطالبات عبارة عن فن بقدر ما هو علم. ومع ذلك، هناك يمكن أن تساعدك في تحسين الطلبات المقدّمة للنماذج اللغوية الكبيرة بشكل تجريبي، مثل أداة تعلُّم التفسير (LIT). LIT هي أداة مفتوحة المصدر لفهم نماذج الذكاء الاصطناعي وتصحيح أخطاءها بشكل مرئي، ويمكن استخدامها كأحد أداة تصحيح الأخطاء في العمل الهندسي الفوري. اتّبِع البرنامج التعليمي المقدَّم باستخدام Colab أو Codelab.
تحليل نماذج Gemma باستخدام LIT
بدء الدرس التطبيقي حول الترميز | بدء Google Colab |
الشكل 1: واجهة مستخدم LIT: يتيح "محرر نقاط البيانات" في أعلى الصفحة للمستخدمين تعديل طلبات البحث. في أسفل الشاشة، تسمح لهم وحدة "LM Salience" للتحقق من نتائج تحديد الأهمية.
يمكنك استخدام LIT على جهازك المحلي، في Colab أو على Google Cloud.
تضمين فِرق غير فنية في عملية استكشاف النماذج وفحصها
يُقصد بقابلية التفسير أن تكون جهدًا جماعيًا، وتمتد إلى مستوى الخبرة والسياسة والقانون والمزيد. إن الوسيط المرئي وقدرة LIT التفاعلية على فحص البروز واستكشاف الأمثلة يمكن أن يساعد الأطراف المعنية المختلفة على مشاركة لتوصيل النتائج. يمكن أن يتيح هذا النهج مزيدًا من تنوع وجهات النظر في استكشاف النماذج والاستقصاء وتصحيح الأخطاء. يمكن أن يؤدي تعريف زملائك في الفريق على هذه ال methods techniques إلى تحسين فهمهم لآلية عمل النماذج. ضِمن بالإضافة إلى ذلك، يمكن أن تساعدك أيضًا مجموعة أكثر تنوعًا من الخبرة في الاختبار الأولي للنموذج وتكشف عن النتائج غير المرغوب فيها التي يمكن تحسينها.