Gemma 開放模型
一系列先進的開放式模型,與建立 Gemini 模型時使用的研究和技術相同
隆重推出
Gemma 2
Gemma 2 經重新設計,可提供無與倫比的效能,且效率無與倫比,因此已針對各種硬體進行最佳化,在極短時間內推論出成效。
5 格式
MMLU
MMLU 基準測試可評估大型語言模型在預先訓練期間獲得的知識廣度和解決問題能力。
25 張
ARC-C
ARC-c 基準是 ARC-e 資料集的更精確子集,只包含常見 (擷取和字詞共現) 演算法回答錯誤的問題。
5 張
GSM8K
GSM8K 基準測試可測試語言模型能否解決中學級數學問題,但通常需要多個推理步驟。
3 到 5 個畫面
AGIEval
AGIEval 基準是藉由實際測驗目的是評估人類智能能力而提出的問題,測試語言模型的一般情報。
3 球,科 T
BBH
BBH (BIG-Bench Hard) 基準測試著重於目前語言模型無法勝任的任務,在各種推理和理解領域測試其極限。
3 鏡頭、F1
丟棄
DROP 是閱讀理解基準測驗,需要針對段落進行獨立推理。
5 格影像
維諾格蘭德
Winogrande 基準測試可測試語言模型解決含糊的填空題任務的能力,這些任務需要一般常識推理,並提供二元選項。
10 張
HellaSwag
HellaSwag 基準測試將選擇最符合邏輯的故事結尾為故事,來挑戰語言模型對於理解及應用常識的能力。
4 桿
數學
MATH 會評估語言模型解決複雜數學應用題的能力,這類題目需要推理、多步驟解題,以及理解數學概念。
0 桿
ARC-e
ARC-e 基準是中學程度、選擇題的科學題,能測試語言模型的進階問題回答技能。
0 張相片
PIQA
PIQA 基準會回答日常互動相關問題,藉此測試語言模型理解及應用物理常見知識的能力。
0 張相片
SI 問答時間
SIQA 基準評估語言模型對社交互動和社會常識的理解程度,方法是詢問有關人類行為及其社會意涵的問題。
0 張相片
布林值
BoolQ 基準測試會測試語言模型能否回答自然發生的是非題,以及模型執行真實語言推論任務的能力。
5 張
TriviaQA
TriviaQA 基準測試會使用問答證據三元組測試閱讀理解技巧。
5 張
NQ
NQ (自然問題) 基準測試可測試語言模型在整篇 Wikipedia 文章中尋找及理解答案的能力,模擬真實的問答情境。
Pass@1
HumanEval
HumanEval 基準測試會評估語言模型的解決方案是否通過程式設計問題的功能單元測試,以此測試語言模型的程式碼產生能力。
3 張
MBPP
MBPP 基準測試可測試語言模型解決基本 Python 程式設計問題的能力,並著重於基本程式設計概念和標準程式庫的使用方式。
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
25 億次觀看
Gemma 2
26 億次
Mistral
70 億
青草 3 號星
8B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億
青草 3 號星
8B
Gemma 1
7B
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億次觀看
Gemma 2
2.6B
Mistral
70 億
LLAMA 3
8B
Gemma 1
7B
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
2.6B
Mistral
7B
LLAMA 3
80 億
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億
Gemma 2
2.6B
Mistral
70 億
LLAMA 3
8B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
26 億次
Mistral
70 億
青草 3 號星
8B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億次觀看
Gemma 2
26 億次
Mistral
70 億
LLAMA 3
8B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
2.6B
Mistral
7B
LLAMA 3
80 億
Gemma 1
7B
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億
Gemma 2
26 億次
Mistral
7B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億次觀看
Gemma 2
26 億次
Mistral
7B
Gemma 1
7B
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
2.6B
Mistral
70 億
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
26 億次
Mistral
70 億
Gemma 1
7B
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億
Gemma 2
26 億次
Mistral
7B
Gemma 1
7B
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億次觀看
Gemma 2
26 億
Mistral
70 億
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
2.6B
Mistral
70 億
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
270 億次
Gemma 1
25 億
Gemma 2
26 億次
Mistral
7B
Gemma 1
70 億
Gemma 2
90 億
Gemma 2
27B
Gemma 1
25 億
Gemma 2
2.6B
Mistral
70 億
Gemma 1
7B
Gemma 2
90 億
Gemma 2
270 億次
*這些是預先訓練模型的基準,請參閱技術報表,進一步瞭解其他方法的成效。
Gemma 模型系列
開發人員快速入門指南
合作夥伴快速入門指南
Gemma 食譜集
探索一系列實用食譜和範例,瞭解 Gemma 的功能強大且多樣性,可用來執行各種任務,例如使用 PaliGemma 生成圖片說明文字、使用 CodeGemma 生成程式碼,以及使用經過微調的 Gemma 模型打造聊天機器人。
負責任的 AI 技術開發作業
設計責任
以精心挑選的資料進行預先訓練,並針對安全性進行調整,有助於透過 Gemma 模型開發安全又負責任的 AI 技術。
穩健且公開透明的評估
全方位的評估和透明化的報告,公開模型限制,讓每個用途都採用負責任的方法。
推動負責任的開發作業
負責任的生成式 AI 工具包可協助開發人員設計及實施負責任 AI 最佳做法。
已針對 Google Cloud 完成最佳化調整
您可以使用 Google Cloud 上的 Gemma 模型,透過 Vertex AI 的全代管工具或 GKE 的自行管理選項,根據特定需求深度自訂模型,然後部署至靈活且具成本效益的 AI 最佳化基礎架構。
運用 Google Cloud 抵免額加快學術研究速度
學術研究計畫已於日前結束申請,並授予 Google Cloud 抵免額,協助研究人員使用 Gemma 模型突破科學探索。我們很期待這項計畫帶來的突破性研究。
加入社群
與機器學習模型社群中的其他使用者交流、探索及分享知識。