Gemma は、Gemini モデルの作成に使用されたのと同じ研究とテクノロジーから構築された、軽量で最先端のオープンモデルのファミリーです。Google DeepMind と Google の他のチームによって開発された Gemma は、ラテン語で「宝石」を意味する「gemma」にちなんで名付けられました。Gemma モデルの重みは、イノベーション、コラボレーション、AI の責任ある使用を促進するデベロッパー ツールによってサポートされています。
Gemma モデルは、アプリケーションだけでなく、ハードウェア、モバイル デバイス、ホスト型サービスで実行できます。また、チューニング手法を使用してこれらのモデルをカスタマイズし、デベロッパーやユーザーにとって重要なタスクを効果的に実行できるようにすることもできます。Gemma モデルは、Gemini モデル ファミリーからインスピレーションと技術的リネージを引き出し、AI 開発コミュニティが拡張と進化を行えるように作成されています。
Gemma モデルはテキスト生成に使用できますが、特定のタスクの実行に特化したようにチューニングすることもできます。チューニングされた Gemma モデルは、ターゲットを絞った効率的な生成 AI ソリューションをユーザーに提供できます。LoRA によるチューニングに関するガイドを確認し ぜひお試しくださいGemma をぜひご活用ください。
このデベロッパー向けドキュメントでは、利用可能な Gemma モデルと開発ガイドの概要を示し、特定のアプリケーションに合わせて Gemma モデルを適用してチューニングする方法について説明します。
モデルのサイズと機能
Gemma モデルには複数のサイズがあり、利用可能なコンピューティング リソース、必要な機能、実行場所に基づいて生成 AI ソリューションを構築できます。どこから始めればよいかわからない場合は、リソース要件を低くし、モデルをデプロイする場所の柔軟性を高めるために、20 億のパラメータ サイズをお試しください。
パラメータ サイズ | 入力 | 出力 | チューニング済みバージョン | 目的のプラットフォーム |
---|---|---|---|---|
20 億 | テキスト | テキスト |
|
モバイル デバイスとノートパソコン |
70 億人 | テキスト | テキスト |
|
デスクトップ コンピュータと小規模サーバー |
Keras 3.0 のマルチバック機能を使用すると、TensorFlow、JAX、PyTorch でこれらのモデルを実行できます。また、JAX(FLAX フレームワークに基づく)と PyTorch で組み込み実装を使用することもできます。
Gemma モデルは、Kaggle モデルからダウンロードすることも、Vertex AI にデプロイできます。
チューニング済みモデル
特定のタスクに対するモデルのパフォーマンスが向上するように、追加のトレーニングで Gemma モデルの動作を変更できます。このプロセスはモデルのチューニングと呼ばれます。この手法により、モデルが対象とするタスクを実施する能力が向上しますが、他のタスクでモデルの性能が低下する可能性もあります。このため、Gemma モデルは、命令調整済みバージョンと事前トレーニング済みバージョンの両方で使用できます。
- 事前トレーニング済み - これらのバージョンのモデルは、Gemma コアデータ トレーニング セット以外の特定のタスクや手順ではトレーニングされません。これらのモデルは、チューニングを行わずにデプロイしないでください。
- 指示調整済み - このバージョンのモデルは、人間の言葉による操作でトレーニングされ、chat bot と同様に会話の入力に応答できます。
始める
Gemma を使用してソリューションの構築を開始するには、次のガイドをご覧ください。
- Gemma を使用したテキスト生成 - モデルを使用して基本的なテキスト生成のサンプルを作成します。
- LoRA チューニングで Gemma をチューニングする - Gemma 2B モデルで LoRA ファインチューニングを行います。
- 分散トレーニングを使用して Gemma モデルをチューニングする - JAX バックエンドで Keras を使用して、LoRA とモデル並列処理で Gemma 7B モデルを微調整します。
- PyTorch の Gemma - PyTorch を使用して Gemma でテキストを生成します。
- Gemma を本番環境にデプロイする - Vertex AI を使用して Gemma を本番環境にデプロイします。