任何负责任的人工智能 (AI) 应用方法都应包括安全政策、透明度工件和保护措施,但负责任地使用 AI 不仅仅意味着遵循核对清单。
生成式 AI 产品相对较新,应用的行为可能会有所不同 与早期形式的软件相比,因此,您应该通过 来检验模型的行为示例, 意外惊喜。
提示是与 GenAI 互动的常用接口,而设计这些提示既是科学,也是艺术。不过, 可以帮助您根据经验来改进 LLM 提示的工具,例如 Learning Interpretability Tool (LIT)。LIT 是一款开源工具,可直观地理解和调试 AI 模型,可用作用于快速完成工程工作的调试程序。请遵循 提供的教程(使用 Colab 或 Codelab)。
使用 LIT 分析 Gemma 模型
启动 Codelab | 启动 Google Colab |
图 1. LIT 的界面:顶部的数据点编辑器允许 修改提示在底部的 LM 显眼度模块中,他们可以查看显眼度结果。
您可以在本地机器上使用 LIT, Colab 或 Google Cloud 上。
将非技术团队纳入模型探查和探索
可解释性需要团队协作,涵盖政策、法律等方面的专业知识。LIT 的视觉媒介和互动能力可用于检查显眼度和探索示例,有助于不同利益相关方分享和传达研究成果。这种方法可以增加 模型探索、探测和调试。让同事了解这些技术方法有助于他们更好地了解模型的运作方式。此外,在模型的早期测试阶段,拥有更丰富的专业知识也有助于发现可改进的不良结果。