透過集合功能整理內容
你可以依據偏好儲存及分類內容。
以負責任的方式設計、建構及評估開放式 AI 模型,並取得相關工具和指南。
開始使用
定義系統層級政策
決定應用程式應產生和不應生成的內容類型。
安全設計
定義整體做法來實施風險控管技術,同時在技術和業務方面做出取捨。
開誠布公
使用 Model Card 等構件傳達做法。
安全的 AI 系統
請參考安全 AI 架構 (SAIF) 中重點介紹的 AI 特定安全性風險和修復方法。
開始使用
調查模型提示
運用學習可解釋性工具 (LIT),不斷改進提示,建立安全實用的提示。
調整模型以確保安全
根據安全和內容政策調整模型,藉此控制模型行為。
開始使用
大型語言比較表
透過 LLM Comparator 進行並列評估,以定性評估不同模型的回應差異、對同一模型的不同提示,甚至是模型的不同調整項目
模型評估指南
瞭解紅隊演練最佳做法,並對照學術基準評估您的模型,評估安全性、公平性和事實性方面的危害。
開始使用
ShieldGemma
以 Gemma 2 為基礎的一系列內容安全分類器,提供三種大小:2B、9B、27B。
靈活的分類器
使用參數高效調整 (PET) 並使用相對較少的訓練資料,為特定政策建立安全性分類器
文字管理服務
在低於特定用量限制的情況下免費使用 Google Cloud Natural Language API 偵測安全屬性清單,包括可能視為敏感的各種類別和主題。
Perspective API
辨識「有毒」留言。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"缺少我需要的資訊"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"過於複雜/步驟過多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"過時"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻譯問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/程式碼問題"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"容易理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"確實解決了我的問題"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]
{}
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["缺少我需要的資訊","missingTheInformationINeed","thumb-down"],["過於複雜/步驟過多","tooComplicatedTooManySteps","thumb-down"],["過時","outOfDate","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["示例/程式碼問題","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],[],[],[]]