負責任的生成式 AI 工具包
以負責任的方式設計、建構及評估開放式 AI 模型,並取得相關工具和指南。
對齊模型
使用提示和調整技巧,確保模型符合特定安全性政策。
開始使用
調整模型以確保安全
根據安全和內容政策調整模型,藉此控制模型行為。
評估模型
運用我們的指引和工具,評估模型安全性、公平性和事實準確率的風險。
開始使用
大型語言比較表
透過 LLM Comparator 進行並列評估,以定性評估不同模型的回應差異、對同一模型的不同提示,甚至是模型的不同調整項目
模型評估指南
瞭解紅隊演練最佳做法,並對照學術基準評估您的模型,評估安全性、公平性和事實性方面的危害。
採取保護措施
篩選應用程式的輸入和輸出內容,避免使用者受到不想要的結果影響。
開始使用
ShieldGemma
以 Gemma 2 為基礎的一系列內容安全分類器,提供三種大小:2B、9B、27B。
靈活的分類器
使用參數高效調整 (PET) 並使用相對較少的訓練資料,為特定政策建立安全性分類器
文字管理服務
在低於特定用量限制的情況下免費使用 Google Cloud Natural Language API 偵測安全屬性清單,包括可能視為敏感的各種類別和主題。
Perspective API
辨識「有毒」留言。