Любой ответственный подход к применению искусственного интеллекта (ИИ) должен включать политику безопасности , артефакты прозрачности и меры безопасности , но ответственность в отношении ИИ означает нечто большее, чем просто следование контрольным спискам.
Продукты GenAI являются относительно новыми, и поведение приложений может отличаться от более ранних форм программного обеспечения. По этой причине вам следует изучить используемые модели, изучить примеры поведения модели и выявить сюрпризы.
Подсказки — это повсеместный интерфейс взаимодействия с GenAI, и разработка таких подсказок — это не только наука, но и искусство. Однако существуют инструменты, которые могут помочь вам эмпирически улучшить подсказки для LLM, например, Learning Interpretability Tool (LIT). LIT — это инструмент с открытым исходным кодом для визуального понимания и отладки моделей ИИ, который можно использовать в качестве отладчика для оперативной инженерной работы . Следуйте предоставленному руководству, используя Colab или Codelab.
Рисунок 1. Пользовательский интерфейс LIT: редактор Datapoint вверху позволяет пользователям редактировать свои подсказки. Внизу модуль LM Salience позволяет им проверять результаты значимости.
Включайте нетехнические группы в исследование и исследование модели.
Интерпретация должна быть коллективной работой, охватывающей опыт в области политики, права и т. д. Визуальная среда LIT и интерактивная способность исследовать значимость и изучать примеры могут помочь различным заинтересованным сторонам делиться и сообщать результаты. Этот подход может обеспечить большее разнообразие точек зрения при исследовании, проверке и отладке модели. Знакомство ваших товарищей по команде с этими техническими методами может улучшить их понимание того, как работают модели. Кроме того, более разнообразный опыт раннего тестирования моделей также может помочь выявить нежелательные результаты, которые можно улучшить.
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2024-11-12 UTC."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]