Gemma 3 モデルの概要

Gemma は生成 AI(AI)モデルのファミリーであり、質問応答、要約、推論など、さまざまな生成タスクで使用できます。Gemma モデルはオープン重み付きで提供され、責任ある商用利用が許可されているため、独自のプロジェクトやアプリケーションにチューニングしてデプロイできます。

Gemma 3 リリースの主な機能は次のとおりです。AI Studio で試す:

Gemma 3 モデルは、KaggleHugging Face からダウンロードできます。Gemma 3 の技術的な詳細については、モデルカード技術レポートをご覧ください。以前のバージョンの Gemma コアモデルもダウンロードできます。詳細については、以前の Gemma モデルをご覧ください。

Gemma 3 を試す Kaggle で入手する Hugging Face で入手する

マルチモーダル画像とテキストの入力

Gemma 3 は画像データとテキストデータを処理できるため、より複雑な分析と生成タスクに取り組むことができます。このモデルを使用して、画像データを解釈したり、オブジェクトを識別したり、テキストデータを抽出したり、その他の多くの視覚入力からテキスト出力タスクを完了したりできます。組み立て開始

128,000 トークンのコンテキスト ウィンドウ

Gemma 3 モデルは、最大 128, 000 トークンのプロンプト入力を処理できます。これは、以前の Gemma モデルのコンテキスト ウィンドウの 16 倍です。トークンが大量にあるため、複数の複数ページの記事、大きな単一の記事、数百枚の画像を 1 つのプロンプトで処理できます。

幅広い言語をサポート

140 を超える言語のサポートが組み込まれているため、母国語で作業できます。Gemma 3 は、以前の Gemma バージョンと比較して多くの言語をサポートするようにトレーニングされているため、お客様が使用する言語でより多くの画像タスクとテキストタスクを処理できます。組み立て開始

パラメータのサイズと量子化

Gemma 3 モデルは、32 ビットの完全精度から 4 ビットの最小精度まで、5 つの精度レベルで 4 つのパラメータ サイズで使用できます。さまざまなサイズと精度は、AI アプリケーションのトレードオフを表します。パラメータとビット数が多いモデル(精度が高いモデル)は一般に機能が優れていますが、処理サイクル、メモリコスト、消費電力という点で実行コストが高くなります。パラメータとビット数が少ないモデル(精度が低いモデル)は機能が制限されますが、AI タスクに十分な場合があります。次の表に、Gemma 3 モデル バージョンの各サイズで推論を実行するために必要な GPU または TPU のメモリの概要を示します。

パラメータ 32 ビット BF16(16 ビット) SFP8
(8 ビット)
Q4_0
(4 ビット)
INT4
(4 ビット)
Gemma 3 1B(テキストのみ 4 GB 1.5 GB 1.1 GB 892 MB 861 MB
Gemma 3 4B 16 GB 6.4 GB 4.4 GB 3.4 GB 3.2 GB
Gemma 3 12B 48 GB 20 GB 12.2 GB 8.7 GB 8.2 GB
Gemma 3 27B 108 GB 46.4 GB 29.1 GB 21 GB 19.9 GB

表 1. パラメータ数と量子化レベル(ビット深度)に基づいて、Gemma 3 モデルの読み込みに必要な GPU または TPU メモリの推定値。

メモリ使用量は、実行するプロンプトに必要なトークンの合計数に応じて増加します。プロンプトの処理に必要なトークン数が多いほど、必要なメモリ量は増加します。これは、モデルの読み込みに必要なメモリとは別です。

以前の Gemma モデル

以前の世代の Gemma モデルを使用できます。これらのモデルは KaggleHugging Face でも入手できます。以前の Gemma モデルの技術的な詳細については、次のモデルカード ページをご覧ください。

構築を開始する準備はできましたか?Gemma モデルを使ってみる