Gemma オープンモデル

Gemini モデルの作成に使用されたものと同じ研究とテクノロジーに基づいて構築された、軽量で最先端のオープンモデルのファミリー

責任に配慮した設計のアイコン

責任に配慮した設計

包括的な安全対策を組み込んだこれらのモデルは、厳選されたデータセットと厳格なチューニングを通じて、責任ある信頼できる AI ソリューションを実現します。

比類のないパフォーマンスのアイコン

規模において比類のないパフォーマンス

Gemma モデルは、2B、7B、9B、27B のサイズで優れたベンチマーク結果を達成しており、一部のより大規模なオープンモデルさえも上回るパフォーマンスを発揮します。

フレームワークの柔軟性

フレームワークの柔軟性

Keras 3.0 では、JAX、TensorFlow、PyTorch とのシームレスな互換性を利用できます。タスクに応じてフレームワークを簡単に選択して切り替えることができます。


Gemma 2 のご紹介

大きなパフォーマンスと卓越した効率性のために再設計された Gemma 2 は、多様なハードウェアでの超高速推論向けに最適化されています。

5 ショット

MMLU

MMLU ベンチマークは、大規模言語モデルが事前トレーニング中に獲得した知識の広さと問題解決能力を測定するテストです。

25 ショット

ARC-C

ARC-c ベンチマークは、ARC-e データセットのより限定的なサブセットであり、一般的な(検索ベースと単語の共起)アルゴリズムで誤って回答された質問のみが含まれています。

5 ショット

GSM8K

GSM8K ベンチマークは、複数の推論ステップが必要な小学校レベルの数学の問題を解く言語モデルの能力をテストします。

3 ~ 5 ショット

AGIEval

AGIEval ベンチマークは、人間の知的能力を評価するよう設計された実際の試験問題から導き出された問題を使用して、言語モデルの一般的な知能をテストします。

3 ショット、CoT

BBH

BBH(BIG-Bench Hard)ベンチマークは、現在の言語モデルの能力を超えると見なされるタスクに焦点を当て、さまざまな推論と理解の領域で限界をテストします。

3 ショット、F1

DROP

DROP は、段落に関する個別の推論を必要とする読解力ベンチマークです。

5 ショット

Winogrande

Winogrande ベンチマークは、一般化された常識的推論を必要とする、バイナリ オプションによるあいまいな穴埋めタスクを解決する言語モデルの能力をテストします。

10 ショット

HellaSwag

HellaSwag ベンチマークは、物語の最も論理的な結末を選択することで、常識的な推論を理解して適用する言語モデルの能力をテストします。

4 ショット

MATH

MATH は、推論、複数ステップの問題解決、数学のコンセプトの理解を必要とする複雑な数学の問題を解く言語モデルの能力を評価します。

ゼロショット

ARC-e

ARC-e ベンチマークは、小学校レベルの実際の科学に関する多肢選択式の問題を使用して、言語モデルの高度な質問応答スキルをテストします。

ゼロショット

PIQA

PIQA ベンチマークは、日々の身体的なやり取りに関する質問に答えることで、言語モデルの身体的な常識的な知識を理解し応用する能力をテストします。

ゼロショット

SIQA

SIQA ベンチマークは、人々の行動と社会的影響について質問することで、言語モデルの社会的インタラクションと社会的常識に対する理解度を評価します。

ゼロショット

Boolq

BoolQ ベンチマークは、自然発生する「はい / いいえ」の質問に回答する言語モデルの能力をテストし、現実世界の自然言語推論タスクを実行するモデルの能力をテストします。

5 ショット

TriviaQA

TriviaQA ベンチマークは、質問と回答と証拠のトリプルを使用して読解力をテストします。

5 ショット

NQ

NQ(自然な質問)ベンチマークは、Wikipedia 記事全体で回答を見つけて理解する言語モデルの能力をテストし、実際の質問応答シナリオをシミュレートします。

pass@1

HumanEval

HumanEval ベンチマークは、言語モデルのコード生成能力をテストするために、そのソリューションがプログラミングの問題に対する機能単体テストに合格するかどうかを評価します。

スリーショット

MBPP

MBPP ベンチマークは、基本的なプログラミングの概念と標準的なライブラリの使用方法に重点を置き、基本的な Python プログラミングの問題を解決する言語モデルの能力をテストします。

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

25 億

42.3

Gemma 2

26 億

5,130

Mistral

70 億人

62.5

LLAMA 3 星

8B

66.6

Gemma 1

70 億人

64.4

Gemma 2

90 億

71.3

Gemma 2

270 億

75.2

Gemma 1

25 億

48.5

Gemma 2

26 億

55.4

Mistral

70 億人

60.5

LLAMA 3

80 億

59.2

Gemma 1

70 億人

61.1

Gemma 2

90 億

68.4

Gemma 2

270 億

71.4

Gemma 1

25 億

15.1

Gemma 2

26 億

23.9

Mistral

70 億人

39.6

LLAMA 3

80 億

45.7

Gemma 1

70 億人

51.8

Gemma 2

90 億

68.6

Gemma 2

270 億

74.0

Gemma 1

25 億

24.2

Gemma 2

26 億

30.6

Mistral

70 億人

4400

LLAMA 3 星

8B

45.9

Gemma 1

70 億人

44.9

Gemma 2

90 億

52.8

Gemma 2

270 億

55.1

Gemma 1

25 億

35.2

Gemma 2

26 億

41.9

Mistral

70 億人

56.0

LLAMA 3 星

8B

61.1

Gemma 1

70 億人

59.0

Gemma 2

90 億

68.2

Gemma 2

270 億

74.9

Gemma 1

25 億

48.5

Gemma 2

26 億

52.0

Mistral

70 億人

63.8

LLAMA 3 星

8B

58.4

Gemma 1

70 億人

56.3

Gemma 2

90 億

69.4

Gemma 2

270 億

74.2

Gemma 1

25 億

66.8

Gemma 2

26 億

70.9

Mistral

70 億人

78.5

LLAMA 3 星

80 億

76.1

Gemma 1

70 億人

79.0

Gemma 2

90 億

80.6

Gemma 2

270 億

83.7

Gemma 1

25 億

71.7

Gemma 2

26 億

73.0

Mistral

70 億人

83.0

LLAMA 3 星

8B

82.0

Gemma 1

70 億人

82.3

Gemma 2

90 億

81.9

Gemma 2

270 億

86.4

Gemma 1

25 億

11.8

Gemma 2

26 億

15.0

Mistral

70 億人

12.7

Gemma 1

70 億人

24.3

Gemma 2

90 億

36.6

Gemma 2

270 億

42.3

Gemma 1

25 億

73.2

Gemma 2

26 億

80.1

Mistral

70 億人

80.5

Gemma 1

70 億人

81.5

Gemma 2

90 億

88.0

Gemma 2

270 億

88.6

Gemma 1

25 億

77.3

Gemma 2

26 億

77.8

Mistral

70 億人

82.2

Gemma 1

70 億人

81.2

Gemma 2

90 億

81.7

Gemma 2

270 億

83.2

Gemma 1

25 億

49.7

Gemma 2

26 億

51.9

Mistral

70 億人

47.0

Gemma 1

70 億人

51.8

Gemma 2

90 億

53.4

Gemma 2

270 億

53.7

Gemma 1

25 億

69.4

Gemma 2

26 億

72.5

Mistral

70 億人

83.2

Gemma 1

70 億人

83.2

Gemma 2

90 億

84.2

Gemma 2

270 億

84.8

Gemma 1

25 億

53.2

Gemma 2

26 億

59.4

Mistral

70 億人

62.5

Gemma 1

70 億人

63.4

Gemma 2

90 億

76.6

Gemma 2

270 億

83.7

Gemma 1

25 億

12.5

Gemma 2

26 億

16.7

Mistral

70 億人

23.2

Gemma 1

70 億人

23.0

Gemma 2

90 億

29.2

Gemma 2

270 億

34.5

Gemma 1

25 億

22.0

Gemma 2

26 億

17.7

Mistral

70 億人

26.2

Gemma 1

70 億人

32.3

Gemma 2

90 億

40.2

Gemma 2

270 億

51.8

Gemma 1

25 億

29.2

Gemma 2

26 億

29.6

Mistral

70 億人

40.2

Gemma 1

70 億人

44.4

Gemma 2

90 億

52.4

Gemma 2

270 億

62.6

*これらは事前トレーニング済みモデルのベンチマークです。他の手法でのパフォーマンスの詳細については、技術レポートをご覧ください。

Gemma モデル ファミリー

新作

Gemma 2

Gemma 2 は、200 億、900 億、270 億のパラメータ サイズで利用可能な 3 つの新しいパワフルで効率的なモデルを提供し、すべて安全機能を備えています。

新作

DataGemma

DataGemma は、LLM を Google のデータ コモンズから取得した広範な実世界のデータに接続するように設計された最初のオープンモデルです。

Gemma 1

Gemma モデルは、さまざまな自然言語処理タスク向けに、テキスト、コード、数学コンテンツの膨大なデータセットでトレーニングされた、軽量のテキストツーテキスト デコーダ専用大規模言語モデルです。

RecurrentGemma

RecurrentGemma は、再帰型ニューラル ネットワークとローカル アテンションを活用してメモリ効率を向上させる、技術的に異なるモデルです。

PaliGemma

PaliGemma は、PaLI-3 にインスパイアされたオープンな視覚言語モデルで、SigLIP と Gemma を活用し、幅広い視覚言語タスクへの転移を目的とした汎用モデルとして設計されています。

CodeGemma

元の事前トレーニング済み Gemma モデルを基盤とする CodeGemma は、ローカル コンピュータに適したサイズで強力なコード補完と生成機能を提供します。

デベロッパー向けクイック スタートガイド

Gemma クックブック

PaliGemma による画像キャプション、CodeGemma によるコード生成、ファインチューニングされた Gemma モデルによる chatbot の構築など、Gemma の強力さと汎用性を示す実用的なレシピと例のコレクションをご覧ください。

責任ある AI 開発

責任に配慮した設計

慎重にキュレートされたデータで事前トレーニングされ、安全性を確保するためにチューニングされているため、Gemma モデルに基づく安全で責任ある AI 開発を支援します。

堅牢で透明性の高い評価

包括的な評価と透明性の高いレポートにより、モデルの制限が明らかになり、ユースケースごとに責任あるアプローチを採用できます。

責任ある開発を推進する

Responsible Generative AI Toolkit は、デベロッパーが責任ある AI のベスト プラクティスを設計して実装できるように支援します。

Google Cloud アイコン

Google Cloud 向けに最適化

Google Cloud の Gemma モデルを使用すると、Vertex AI のフルマネージド ツールまたは GKE のセルフマネージド オプションを使用して、特定のニーズに合わせてモデルを詳細にカスタマイズし、柔軟で費用対効果の高い AI 最適化インフラストラクチャにデプロイできます。

Google Cloud クレジットで学術研究を加速する

学術研究プログラムの申請期間が最近終了し、Gemma モデルを使用して科学的発見の限界を押し広げる研究者を支援するために、Google Cloud クレジットが付与されました。このイニシアチブから生まれる画期的な研究を楽しみにしています。

Google Cloud で研究を推進するための今後の機会にぜひご期待ください。

コミュニティに参加

ML モデル コミュニティで他のユーザーとつながり、探索し、知識を共有します。