負責任的生成式 AI 工具包
工具和指南:秉持負責態度設計、建構及評估開放式 AI 模型。
對齊模型
使用提示和調整技巧,讓模型符合特定安全政策。
開始使用
為安全性調整模型
根據安全和內容政策調整模型,藉此控制模型行為。
調查模型提示
運用學習可解釋性工具 (LIT),不斷改進提示,建立安全實用的提示。
評估模型
運用我們的指引和工具,評估模型安全性、公平性和事實準確率的風險。
開始使用
LLM 比較器
使用 LLM 比較工具並排評估,以評估模型之間的回覆差異、同一個模型的不同提示,甚至是模型的不同調整
模型評估指南
瞭解紅隊演練的最佳做法,並根據學術基準評估模型,以便評估安全性、公平性和事實性方面的風險。
採取保護措施
篩選應用程式的輸入和輸出內容,避免使用者受到不想要的結果影響。
開始使用
SynthID 文字
用於為模型產生的文字加上浮水印,並偵測這些文字。
ShieldGemma
以 Gemma 2 為基礎的一系列內容安全分類器,提供三種大小:2B、9B、27B。
靈活的分類器
使用參數有效調整 (PET) 技術,針對特定政策建立安全分類器,且只需相對少的訓練資料
檢查 AI 安全性
透過 API 和資訊主頁整合,確保 AI 符合內容政策的安全性。
文字管理服務
使用這個 Google Cloud Natural Language API 偵測安全屬性清單,包括各種可能有害的類別和可能較敏感的主題,且在特定用量限制下可免費使用。
Perspective API
辨識「有毒」留言。