Responsible Generative AI 工具包
负责任地设计、构建和评估开放式 AI 模型的工具和指南。
对齐模型
使用提示和调优技术,使模型符合您的特定安全政策。
开始使用
为安全而调优模型
根据安全和内容政策调整模型,以控制模型行为。
调查模型提示
借助 Learning Interpretability Tool (LIT),通过迭代改进来构建安全实用的提示。
评估模型
使用我们的指南和工具评估模型在安全性、公平性和事实准确性方面的风险。
开始使用
LLM Comparator
使用 LLM Comparator 进行并排评估,以定性评估模型之间的回答差异、同一模型的不同提示,甚至模型的不同调优
利用保护措施进行保护
过滤应用的输入和输出,并保护用户免受不良后果的影响。
开始使用
SynthID 文本
用于为模型生成的文本添加水印和检测文本的工具。
ShieldGemma
一系列基于 Gemma 2 构建的内容安全分类器,分为 2B、9B 和 27B 三种大小。
敏捷分类器
使用相对较少的训练数据通过参数高效调优 (PET) 为您的特定政策创建安全分类器
Checks AI Safety
借助 API 和监控信息中心,确保 AI 根据您的内容政策确保安全合规性。
文字审核服务
借助此 Google Cloud Natural Language API,它可在低于特定用量限额的情况下免费使用,从而检测安全属性列表,包括可能被视为敏感的各种潜在有害类别和主题。
Perspective API
使用这款免费的 Google Jigsaw API 识别“恶意”评论,以减少在线恶意言论,打造健康的在线交流环境。