Setiap pendekatan yang bertanggung jawab untuk menerapkan kecerdasan buatan (AI) harus mencakup
kebijakan keamanan,
artefak transparansi, dan
perlindungan, tetapi bertanggung jawab dengan AI berarti lebih dari sekadar
mengikuti checklist.
Produk GenAI relatif baru dan perilaku aplikasi dapat bervariasi
lebih banyak dari
bentuk perangkat lunak sebelumnya. Oleh karena itu, Anda harus menyelidiki
model yang digunakan untuk memeriksa contoh perilaku model, dan menyelidiki
kejutan.
Perintah adalah antarmuka yang ada di mana-mana untuk berinteraksi dengan GenAI, dan
membuat perintah tersebut adalah seni sekaligus ilmu pengetahuan. Namun, ada
alat yang dapat membantu Anda secara empiris meningkatkan kemampuan LLM, seperti
Alat Penafsiran Pembelajaran (LIT). LIT adalah alat open source
untuk memahami dan men-debug model AI secara visual, yang dapat digunakan sebagai
debugger untuk pekerjaan rekayasa prompt. Ikuti
tutorial yang diberikan menggunakan Colab atau Codelab.
Gambar 1. Antarmuka pengguna LIT: Editor Titik Data di bagian atas memungkinkan
pengguna mengedit perintah mereka. Di bagian bawah, modul salience
LM memungkinkan mereka
untuk memeriksa hasil saliency.
Menyertakan tim non-teknis dalam eksplorasi dan pemeriksaan model
Interpretabilitas dimaksudkan sebagai upaya tim, yang mencakup keahlian di seluruh
kebijakan, hukum, dan lainnya. Media visual dan kemampuan interaktif LIT untuk memeriksa
salience dan mengeksplorasi contoh-contoh dapat membantu
pemangku kepentingan yang berbeda berbagi dan
mengkomunikasikan temuan. Pendekatan ini dapat memungkinkan
keragaman perspektif yang lebih
eksplorasi, pemeriksaan, dan proses debug model. Memperkenalkan rekan tim Anda ke metode teknis
ini dapat meningkatkan pemahaman mereka tentang cara kerja model. Di beberapa
Selain itu, keahlian yang lebih beragam dalam pengujian model awal juga dapat membantu
mengungkap hasil yang tidak
diinginkan yang dapat ditingkatkan.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-10-23 UTC."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]