Google uses AI technology to translate content into your preferred language. AI translations can contain errors.
使用 LIT 进行提示调试
任何负责任的人工智能 (AI) 应用方法都应包括安全政策、透明度工件和保护措施,但负责任地使用 AI 不仅仅意味着遵循核对清单。
生成式 AI 产品相对较新,应用的行为可能会有所不同
与早期形式的软件相比,因此,您应该通过
来检验模型的行为示例,
意外惊喜。
提示是与 GenAI 互动的常用接口,而设计这些提示既是科学,也是艺术。不过,
可以帮助您根据经验来改进 LLM 提示的工具,例如
Learning Interpretability Tool (LIT)。LIT 是一款开源工具,可直观地理解和调试 AI 模型,可用作用于快速完成工程工作的调试程序。请遵循
提供的教程(使用 Colab 或 Codelab)。
使用 LIT 分析 Gemma 模型
图 1. LIT 的界面:顶部的数据点编辑器允许
修改提示在底部的 LM 显眼度模块中,他们可以查看显眼度结果。
您可以在本地机器上使用 LIT,
Colab 或 Google Cloud 上。
将非技术团队纳入模型探查和探索
可解释性需要团队协作,涵盖政策、法律等方面的专业知识。LIT 的视觉媒介和互动能力可用于检查显眼度和探索示例,有助于不同利益相关方分享和传达研究成果。这种方法可以增加
模型探索、探测和调试。让同事了解这些技术方法有助于他们更好地了解模型的运作方式。此外,在模型的早期测试阶段,拥有更丰富的专业知识也有助于发现可改进的不良结果。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2026-01-15。
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["没有我需要的信息","missingTheInformationINeed","thumb-down"],["太复杂/步骤太多","tooComplicatedTooManySteps","thumb-down"],["内容需要更新","outOfDate","thumb-down"],["翻译问题","translationIssue","thumb-down"],["示例/代码问题","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2026-01-15。"],[],[]]