商業使用,讓您在自有專案和應用程式中進行調整及部署。
Gemma 是一系列生成式人工智慧 (AI) 模型,可用於各種生成工作,包括回答問題、製作摘要和推理。Gemma 模型提供開放權重,並允許負責任的Gemma 3 版本包含下列主要功能。前往 AI Studio 試用:
- 圖片和文字輸入:多模態功能可讓您輸入圖片和文字,以便瞭解及分析視覺資料。開始建構
- 128K 個符號脈絡:輸入脈絡的大小是 16 倍,可用於分析更多資料和解決更複雜的問題。
- 廣泛的語言支援:支援超過 140 種語言,讓您可以使用自己的語言,或擴充 AI 應用程式的語言功能。開始建構
- 開發人員友善的模型大小:選擇最適合任務和運算資源的模型大小 (1B、4B、12B、27B) 和精確度等級。
您可以從 Kaggle 和 Hugging Face 下載 Gemma 3 模型。如需 Gemma 3 的更多技術細節,請參閱模型資訊卡和技術報告。您也可以下載舊版 Gemma 核心模型。詳情請參閱「舊版 Gemma 模型」。
試用 Gemma 3 在 Kaggle 取得模型 在 Hugging Face 取得模型
多模態圖像和文字輸入
您可以使用 Gemma 3 處理更複雜的分析和產生工作,因為它能夠處理圖片和文字資料。您可以使用此模型解讀圖像資料、辨識物件、擷取文字資料,以及完成許多其他視覺輸入至文字輸出的工作。開始建構
128K 個詞元的脈絡窗口
Gemma 3 模型可處理最多 128K 符記的提示輸入內容,比先前的 Gemma 模型多出 16 倍的上下文視窗。大量符記表示您可以在單一提示中處理多篇多頁文章、較大的單篇文章,或數百張圖片。
支援多種語言
內建支援超過 140 種語言,讓您以慣用語言工作。相較於先前的 Gemma 版本,Gemma 3 經過訓練可支援大量語言,讓您以客戶使用的語言處理更多圖像和文字工作。開始建構
參數大小和量化
Gemma 3 型號提供 4 種參數大小和 5 種精確度等級,從 32 位元的完整精確度到 4 位元的最低精確度皆有。不同的大小和精確度代表 AI 應用程式必須做出的權衡。參數和位元數較多 (精確度較高) 的模型通常功能較強大,但在處理週期、記憶體成本和耗電量方面,執行成本也較高。參數和位元數較少 (精確度較低) 的模型功能較少,但可能已足以處理 AI 工作。下表列出 Gemma 3 模型版本的各個大小,以及執行推論時大約需要的 GPU 或 TPU 記憶體。
參數 | Full 32bit | BF16 (16 位元) | SFP8 (8 位元) |
Q4_0 (4 位元) |
INT4 (4 位元) |
---|---|---|---|---|---|
Gemma 3 1B (僅限文字) | 4 GB | 1.5 GB | 1.1 GB | 892 MB | 861 MB |
Gemma 3 4B | 16 GB | 6.4 GB | 4.4 GB | 3.4 GB | 3.2 GB |
Gemma 3 12B | 48 GB | 20 GB | 12.2 GB | 8.7 GB | 8.2 GB |
Gemma 3 27B | 108 GB | 46.4 GB | 29.1 GB | 21 GB | 19.9 GB |
表 1. 根據參數數量和量化層級 (位元深度),載入 Gemma 3 模型所需的 GPU 或 TPU 記憶體大約值。
記憶體用量會根據您執行提示所需的符記總數增加。處理提示所需的符記數量越多,所需記憶體就越大,這還不包括載入模型所需的記憶體。
舊版 Gemma 模型
您可以使用先前一代 Gemma 模型,這些模型也可在 Kaggle 和 Hugging Face 上找到。如要進一步瞭解先前 Gemma 型號的技術細節,請參閱下列型號資訊卡頁面:
- Gemma 2 Model Card
- Gemma 1 Model Card
準備好開始建構了嗎?開始使用 Gemma 模型!