ShieldGemma
ShieldGemma は、定義された一連の安全ポリシーに対してテキストと画像の安全性を評価するための、チューニング済みの一連の命令モデルです。このモデルは、生成 AI アプリケーションの大規模な実装の一部として使用して、生成 AI アプリケーションが安全性に関するポリシーに違反するのを評価して防止できます。ShieldGemma ファミリーのモデルにはオープン重みが用意されているため、特定のユースケースに合わせてファインチューニングできます。
ShieldGemma 2 は、安全性に関する画像のラベル付け用に構築された 40 億のパラメータモデルです。
ShieldGemma 1 は、2B、9B、27B のパラメータ サイズの Gemma 2 上に構築されています。-
コンテンツの安全性の評価
定義済みの安全性ポリシーに照らして、プロンプトの入力レスポンスと出力レスポンスの安全性を評価します。 -
チューニング可能なオープンモデル
ShieldGemma モデルにはオープン ウェイトが提供されており、特定のユースケースに合わせてファインチューニングできます。
ShieldGemma 2
モデルカードを表示する
ShieldGemma の 2 つのモデルカードには、モデルの実装、評価、モデルの使用方法と制限事項などに関する詳細情報が記載されています。
Kaggle で表示
Kaggle の ShieldGemma に関するコード、Colab ノートブック、情報、ディスカッションをご覧ください。
HuggingFace で表示
ShieldGemma を使用して画像を評価するサンプルを実行します。
ShieldGemma 1
モデルカードを表示する
ShieldGemma のモデルカードには、モデルの実装、評価、モデルの使用状況、制限事項などに関する詳細情報が含まれています。
Kaggle で表示
Kaggle の ShieldGemma に関するコード、Colab ノートブック、情報、ディスカッションをご覧ください。
Colab で実行
ShieldGemma を使用してテキスト プロンプトの入出力を評価するサンプルを実行します。