凡是以負責任的方式應用人工智慧 (AI) 的做法,都應包括 安全性政策 透明度構件,以及 不僅保障使用者安全,對 AI 抱持負責態度的助益 請點選下列檢查清單。
生成式 AI 產品屬於新興技術,應用程式的行為可能會比早期軟體形式更不一致。因此,您應探查所用模型,以便檢查模型行為的範例,並調查意外結果。
提示是與 GenAI 互動的常見介面,而設計這些提示既是藝術,也是科學。不過,您可以使用學習技術可解釋性工具 (LIT) 等工具,根據經驗改善 LLM 提示。LIT 是一項開放原始碼工具,可用於視覺化瞭解及偵錯 AI 模型,並可做為提示工程工作偵錯工具。接著,請參閱 教學課程。
使用 LIT 分析 Gemma 模型
開始使用程式碼研究室 | 啟動 Google Colab |
圖 1. LIT 的使用者介面:頂端的資料點編輯器可讓使用者編輯提示。在底部,LM Salience 模組可讓他們查看重要性結果。
您可以在本機電腦、Colab 或 Google Cloud 上使用 LIT。
請非技術團隊參與模型探測和探索
可解釋性是指讓團隊合作,並將跨越專業領域的專業能力串連起來 政策和法律等。透過 LIT 的視覺媒體和互動功能,可以檢視顯著性並探索相關範例,協助不同利害關係人分享和傳達研究結果。這種做法可在模型探索、探測和偵錯時提供更多元的觀點。讓同事瞭解這些技術方法,有助於他們進一步瞭解模型的運作方式。此外,在早期模型測試中,多樣化的專家知識也能協助找出可改善的負面結果。