負責任的生成式 AI 工具包
以負責任的方式設計、建構及評估開放式 AI 模型,並取得相關工具和指南。
對齊模型
使用提示和調整技巧,確保模型符合特定安全性政策。
開始使用
調整模型以確保安全
根據安全和內容政策調整模型,藉此控制模型行為。
評估模型
運用我們的指引和工具,評估模型安全性、公平性和事實準確率的風險。
開始使用
大型語言比較表
透過 LLM Comparator 進行並列評估,以定性評估不同模型的回應差異、對同一模型的不同提示,甚至是模型的不同調整項目
模型評估指南
瞭解紅隊演練最佳做法,並對照學術基準評估您的模型,評估安全性、公平性和事實性方面的危害。
採取保護措施
篩選應用程式的輸入和輸出內容,避免使用者受到不想要的結果影響。
開始使用
靈活的分類器
使用參數高效調整 (PET) 並使用相對較少的訓練資料,為特定政策建立安全性分類器
文字管理服務
在低於特定用量限制的情況下免費使用 Google Cloud Natural Language API 偵測安全屬性清單,包括可能視為敏感的各種類別和主題。
Perspective API
辨識「有毒」留言。