Gemma Open Models
กลุ่มผลิตภัณฑ์โมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากงานวิจัยและเทคโนโลยีเดียวกับที่ใช้สร้างโมเดล Gemini
ขอแนะนำ
Gemma 2
Gemma 2 ออกแบบใหม่เพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว
5 นัด
MMLU
เกณฑ์ MMLU เป็นการทดสอบที่วัดความกว้างของความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับระหว่างการฝึกล่วงหน้า
25 ภาพ
ARC-C
การเปรียบเทียบ ARC-c คือชุดข้อมูลย่อยที่มุ่งเน้นมากขึ้นของชุดข้อมูล ARC-e ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (แบบฐานการดึงข้อมูลและแบบคำที่พบร่วมกัน)
5 นัด
GSM8K
การเปรียบเทียบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับชั้นเรียนที่มักต้องมีการให้เหตุผลหลายขั้นตอน
3-5-shot
AGIEval
การเปรียบเทียบ AGIEval จะทดสอบความฉลาดทั่วไปของโมเดลภาษาโดยใช้คำถามที่มาจากข้อสอบในชีวิตจริงซึ่งออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์
3 ช็อต, COT
BBH
การเปรียบเทียบ BBH (BIG-Bench Hard) จะมุ่งเน้นที่งานที่ถือว่าเกินความสามารถของโมเดลภาษาในปัจจุบัน เพื่อทดสอบขีดจำกัดของโมเดลในด้านการให้เหตุผลและการทําความเข้าใจในโดเมนต่างๆ
3 ช็อต, F1
วาง
DROP เป็นการทดสอบการอ่านเพื่อความเข้าใจที่ต้องใช้การแยกแยะเหตุผลในย่อหน้า
5 นัด
Winogrande
การทดสอบ Winogrande จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาแบบเติมคำในช่องว่างที่คลุมเครือด้วยตัวเลือกแบบ 2 ทางเลือก ซึ่งต้องใช้การหาเหตุผลแบบสามัญสำนึกทั่วไป
10 ช็อต
HellaSwag
เกณฑ์ HellaSwag ท้าทายความสามารถของโมเดลภาษาในการเข้าใจและใช้เหตุผลเชิงตรรกะทั่วไปโดยการเลือกตอนจบที่สมเหตุสมผลที่สุดสำหรับเรื่องราว
4 ช็อต
MATH
MATH จะประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาทางคณิตศาสตร์ที่ซับซ้อน ซึ่งต้องใช้การหาเหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์
0 ช็อต
ARC-e
การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามวิทยาศาสตร์แบบปรนัยจริงในระดับโรงเรียน
0-ช็อต
PIQA
การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาเพื่อทำความเข้าใจและนำความรู้ทั่วไปด้านกายภาพไปใช้โดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน
0 ช็อต
SIQA
การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา
0-ช็อต
Boolq
การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามธรรมชาติ เป็นการทดสอบความสามารถของโมเดลในการทำงานอนุมานภาษาธรรมชาติในโลกแห่งความเป็นจริง
5 นัด
TriviaQA
เกณฑ์เปรียบเทียบของ TriviaQA จะทดสอบทักษะการอ่านเพื่อความเข้าใจด้วยชุดข้อมูล 3 รายการ ได้แก่ คำถาม คำตอบ และหลักฐาน
5 นัด
NQ
การทดสอบ NQ (คำถามที่เป็นภาษาธรรมชาติ) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบภายในบทความ Wikipedia ทั้งหมด โดยจำลองสถานการณ์การตอบคำถามในชีวิตจริง
pass@1
HumanEval
การทดสอบประสิทธิภาพ HumanEval จะทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่
3 ช็อต
MBPP
การทดสอบประสิทธิภาพ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาการเขียนโปรแกรม Python พื้นฐาน โดยมุ่งเน้นที่แนวคิดการเขียนโปรแกรมพื้นฐานและการใช้ไลบรารีมาตรฐาน
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8 พันล้าน
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 พันล้าน
*นี่คือการเปรียบเทียบสำหรับโมเดลที่ผ่านการฝึกล่วงหน้า โปรดดูรายละเอียดเกี่ยวกับประสิทธิภาพด้วยวิธีการอื่นๆ ในรายงานทางเทคนิค
กลุ่มผลิตภัณฑ์โมเดล Gemma
คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาแอป
คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์
Gemma Cookbook
สำรวจคอลเล็กชันสูตรอาหารที่ใช้ได้จริงและตัวอย่างที่แสดงให้เห็นถึงพลังและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายภาพด้วย PaliGemma, การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี
การพัฒนา AI อย่างมีความรับผิดชอบ
การออกแบบโดยคำนึงถึงความรับผิดชอบ
ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma
การประเมินที่มีประสิทธิภาพและโปร่งใส
การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสจะเปิดเผยข้อจํากัดของโมเดลเพื่อใช้แนวทางที่รับผิดชอบสําหรับแต่ละกรณีการใช้งาน
ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ
เครื่องมือ Generative AI อย่างมีความรับผิดชอบสนับสนุนนักพัฒนาซอฟต์แวร์ในการออกแบบและใช้แนวทางปฏิบัติแนะนำเกี่ยวกับ AI อย่างมีความรับผิดชอบ
เพิ่มประสิทธิภาพสำหรับ Google Cloud
เมื่อใช้โมเดล Gemma ใน Google Cloud คุณจะปรับแต่งโมเดลให้ตรงกับความต้องการเฉพาะของคุณได้อย่างละเอียดด้วยเครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือกแบบจัดการเองของ GKE และนำไปใช้งานได้กับโครงสร้างพื้นฐานที่ปรับให้เหมาะกับ AI อย่างยืดหยุ่นและคุ้มค่า
เร่งงานวิจัยทางวิชาการด้วยเครดิต Google Cloud
โปรแกรมการวิจัยทางวิชาการเพิ่งสิ้นสุดระยะเวลาการสมัคร โดยมอบเครดิต Google Cloud เพื่อสนับสนุนนักวิจัยที่ขยายขอบเขตการค้นพบทางวิทยาศาสตร์โดยใช้โมเดล Gemma เราหวังว่าจะได้เห็นการวิจัยที่ก้าวล้ำซึ่งเกิดขึ้นจากโครงการริเริ่มนี้
เข้าร่วมชุมชน
เชื่อมต่อ สำรวจ และแชร์ความรู้ของคุณกับคนอื่นๆ ในชุมชนโมเดล ML