Mọi phương pháp sử dụng trí tuệ nhân tạo (AI) có trách nhiệm đều phải bao gồm chính sách an toàn, cấu phần minh bạch và biện pháp bảo vệ. Tuy nhiên, việc sử dụng AI có trách nhiệm không chỉ là việc làm theo danh sách kiểm tra.
Các sản phẩm GenAI còn khá mới và hành vi của ứng dụng có thể khác nhau nhiều hơn so với các dạng phần mềm trước đó. Vì lý do này, bạn nên thăm dò các mô hình đang được sử dụng để kiểm tra các ví dụ về hành vi của mô hình và điều tra các kết quả bất ngờ.
Lời nhắc là một giao diện có mặt khắp nơi để tương tác với AI tạo sinh, và
kỹ thuật thì những câu lệnh đó cũng mang tính nghệ thuật và khoa học. Tuy nhiên, có một số
có thể giúp bạn cải thiện câu lệnh cho các LLM theo kinh nghiệm, chẳng hạn như
Công cụ diễn giải học tập (LIT). LIT là một công cụ nguồn mở để hiểu và gỡ lỗi trực quan các mô hình AI. Công cụ này có thể được dùng làm trình gỡ lỗi cho công việc kỹ thuật nhanh. Hãy đồng hành cùng
đã cung cấp hướng dẫn thông qua Colab hoặc Lớp học lập trình.
Hình 1. Giao diện người dùng của LIT: Trình chỉnh sửa điểm dữ liệu ở trên cùng cho phép người dùng chỉnh sửa câu lệnh của họ. Ở dưới cùng, mô-đun LM Salience cho phép họ kiểm tra kết quả nổi bật.
Đưa các nhóm không chuyên về kỹ thuật vào quy trình thăm dò và khám phá mô hình
Khả năng diễn giải là một nỗ lực của nhóm, bao gồm các chuyên môn về chính sách, pháp lý và nhiều lĩnh vực khác. Khả năng tương tác và phương tiện hình ảnh của LIT trong việc kiểm tra
và tìm hiểu ví dụ có thể giúp các bên liên quan khác nhau chia sẻ và
truyền đạt các phát hiện. Phương pháp này có thể mang lại nhiều góc nhìn hơn trong việc khám phá, thăm dò và gỡ lỗi mô hình. Giới thiệu những nội dung này cho các thành viên trong nhóm của bạn
các phương pháp kỹ thuật có thể giúp họ nâng cao
hiểu biết về cách hoạt động của các mô hình. Ngoài ra, một nhóm chuyên gia đa dạng hơn trong quá trình thử nghiệm mô hình sớm cũng có thể giúp phát hiện những kết quả không mong muốn có thể được cải thiện.
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2024-10-23 UTC."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]