هر رویکرد مسئولانه ای برای به کارگیری هوش مصنوعی (AI) باید شامل سیاست های ایمنی ، مصنوعات شفافیت و پادمان ها باشد، اما مسئولیت پذیری با هوش مصنوعی بیش از دنبال کردن چک لیست ها است.
محصولات GenAI نسبتاً جدید هستند و رفتارهای یک برنامه کاربردی می تواند بیشتر از نرم افزارهای قبلی متفاوت باشد. به همین دلیل، باید مدلهایی را که برای بررسی نمونههایی از رفتار مدل استفاده میشوند، بررسی کنید و شگفتیها را بررسی کنید.
Prompting رابط همه جا برای تعامل با GenAI است و مهندسی آن اعلان ها به همان اندازه که علم است هنر است. با این حال، ابزارهایی وجود دارند که میتوانند به شما در بهبود تجربی اعلانهای LLM کمک کنند، مانند ابزار تفسیرپذیری یادگیری (LIT). LIT یک ابزار منبع باز برای درک بصری و اشکال زدایی مدل های هوش مصنوعی است که می تواند به عنوان یک اشکال زدا برای کارهای مهندسی سریع استفاده شود. با استفاده از Colab یا Codelab آموزش ارائه شده را همراهی کنید.
شکل 1. رابط کاربری LIT: ویرایشگر Datapoint در بالا به کاربران اجازه می دهد تا درخواست های خود را ویرایش کنند. در پایین، ماژول LM Salience به آنها اجازه می دهد تا نتایج برجسته را بررسی کنند.
تفسیرپذیری به معنای تلاش گروهی است که تخصص را در سیاست، حقوق و موارد دیگر در بر می گیرد. رسانه بصری و توانایی تعاملی LIT برای بررسی ویژگیهای برجسته و کاوش نمونهها میتواند به سهامداران مختلف کمک کند تا یافتهها را به اشتراک بگذارند و ارتباط برقرار کنند. این رویکرد می تواند تنوع چشم انداز بیشتری را در کاوش مدل، کاوش و اشکال زدایی امکان پذیر کند. قرار دادن هم تیمی های خود با این روش های فنی می تواند درک آنها را از نحوه عملکرد مدل ها افزایش دهد. علاوه بر این، مجموعهای از تخصصهای متنوعتر در آزمایشهای اولیه مدل نیز میتواند به کشف نتایج نامطلوب که قابل بهبود هستند کمک کند.
تاریخ آخرین بهروزرسانی 2024-11-12 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2024-11-12 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]