يجب أن يتضمّن أيّ نهج مسؤول لتطبيق الذكاء الاصطناعي (AI) ما يلي:
سياسات الأمانعناصر الشفافيةلتدابير الوقاية، لكن تحمُّل المسؤولية عند استخدام الذكاء الاصطناعي يعني أكثر من
قوائم التحقق التالية.
منتجات الذكاء الاصطناعي التوليدي هي منتجات جديدة نسبيًا، ويمكن أن تختلف سلوكيات أحد التطبيقات.
أكثر من أشكال البرامج السابقة. لهذا السبب، يجب عليك التحقق من
نماذج مستخدمة لفحص أمثلة على سلوك النموذج، والتحقيق في
والمفاجآت.
الطلبات هي الواجهة الشاملة للتفاعل مع الذكاء الاصطناعي التوليدي
هندسة هذه المطالبات عبارة عن فن بقدر ما هو علم. ومع ذلك، هناك
يمكن أن تساعدك في تحسين الطلبات المقدّمة للنماذج اللغوية الكبيرة بشكل تجريبي، مثل
أداة تعلُّم التفسير (LIT). LIT هي أداة مفتوحة المصدر
لفهم نماذج الذكاء الاصطناعي وتصحيح أخطاءها بشكل مرئي، ويمكن استخدامها كأحد أداة تصحيح الأخطاء في العمل الهندسي الفوري. اتّبِع البرنامج التعليمي المقدَّم باستخدام Colab أو Codelab.
الشكل 1: واجهة مستخدم LIT: يتيح "محرر نقاط البيانات" في أعلى الصفحة
للمستخدمين تعديل طلبات البحث. في أسفل الشاشة، تسمح لهم وحدة "LM Salience"
للتحقق من نتائج تحديد الأهمية.
تضمين فِرق غير فنية في عملية استكشاف النماذج وفحصها
يُقصد بقابلية التفسير أن تكون جهدًا جماعيًا، وتمتد إلى مستوى الخبرة
والسياسة والقانون والمزيد. إن الوسيط المرئي وقدرة LIT التفاعلية على فحص
البروز واستكشاف الأمثلة يمكن أن يساعد الأطراف المعنية المختلفة على مشاركة
لتوصيل النتائج. يمكن أن يتيح هذا النهج مزيدًا من تنوع وجهات النظر في
استكشاف النماذج والاستقصاء وتصحيح الأخطاء. يمكن أن يؤدي تعريف زملائك في الفريق على هذه ال methods techniques إلى تحسين فهمهم لآلية عمل النماذج. ضِمن
بالإضافة إلى ذلك، يمكن أن تساعدك أيضًا مجموعة أكثر تنوعًا من الخبرة في الاختبار الأولي للنموذج
وتكشف عن النتائج غير المرغوب فيها التي يمكن تحسينها.
تاريخ التعديل الأخير: 2024-10-23 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2024-10-23 (حسب التوقيت العالمي المتفَّق عليه)"],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]