責任ある生成 AI ツールキット

このツールキットには、Gemma モデルなどのオープンモデルの責任ある使用に関するベスト プラクティスを適用するためのリソースが用意されています。リソースには次のようなものがあります。

  • 安全ポリシーの設定、安全性の調整、安全性分類器、モデルの評価に関するガイダンス。
  • Learning Interpretability Tool(LIT): Gemma の動作を調査し、潜在的な問題に対処します。
  • 最小限の例で堅牢な安全性分類器を構築するための手法。

このバージョンのツールキットは、英語のテキストからテキストへのモデルのみに焦点を当てています。このツールキットの利便性向上のため、ページの下部にあるフィードバック メカニズムのリンクからフィードバックを送信できます。

Gemma を使用して構築する場合は、責任に対して包括的なアプローチを取り、アプリケーション レベルとモデルレベルで起こりうるすべての課題を考慮する必要があります。このツールキットでは、安全性、プライバシー、公平性、アカウンタビリティに対処するためのリスクと軽減手法について説明します。

責任ある AI への取り組みの機能図

詳細とガイダンスについては、このツールキットの残りの部分をご覧ください。

著者と協力者

このツールキットは、以下の著者やコントリビューターなど、Google のさまざまなチームの研究とツールで構成されています。

Ludovic Peran、Kathy Meier-Hellstern、Lucas Dixon、Reena Jana、Oscar Wahltinez、Clément Crepy、Ryan Mullins、Ian Tenney、Ted Klimenko、Shree Pandya、Nithum Thoyn、Mackenzie Thomas、Binden Shanle Schaffer