負責任的生成式 AI 技術工具包
工具和指南:秉持負責態度設計、建構及評估開放式 AI 模型。
對齊模型
使用提示和調整技巧,讓模型符合特定安全政策。
開始使用
為安全性調整模型
調整模型,讓模型符合安全性和內容政策,進而控制模型行為。
調查模型提示
透過學習技術可解釋性工具 (LIT) 不斷改善,建立安全且實用的提示。
評估模型
運用我們的指南和工具,評估模型在安全性、公平性和事實準確性方面的風險。
開始使用
LLM 比較器
使用 LLM 比較工具並排評估,以評估模型之間的回覆差異、同一個模型的不同提示,甚至是模型的不同調整
使用安全防護措施
篩選應用程式的輸入和輸出內容,並保護使用者免於遭遇不良結果。
開始使用
SynthID 文字
用於為模型產生的文字加上浮水印,並偵測這些文字。
ShieldGemma
一系列以 Gemma 2 建構的內容安全性分類器,提供 2B、9B 和 27B 三種大小。
靈活分類器
使用參數效率調校 (PET) 為特定政策建立安全分類器,且只需相對少的訓練資料
檢查 AI 安全性
透過 API 和監控資訊主頁,確保 AI 安全性符合內容政策。
文字管理服務
使用這個 Google Cloud Natural Language API 偵測安全屬性清單,包括各種可能有害的類別和可能較敏感的主題,且在特定用量限制下可免費使用。
Perspective API
使用這項免費的 Google Jigsaw API 識別「惡意」評論,減少網路上的惡意內容,確保對話內容健康。