Gemma Open Models
กลุ่มโมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากการวิจัยและเทคโนโลยีเดียวกันกับที่ใช้สร้างโมเดล Gemini
ขอแนะนำ
Gemma 2
Gemma 2 ออกแบบมาเพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว
5 นัด
MMLU
การเปรียบเทียบ MMLU เป็นการทดสอบที่วัดความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับในระหว่างการฝึกล่วงหน้า
25 ช็อต
ARC-C
การเปรียบเทียบ ARC-c คือชุดย่อยที่โฟกัสของชุดข้อมูล ARC-e มากกว่า ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (การดึงข้อมูลจากฐานข้อมูลและคำที่เกิดขึ้นร่วมกัน)
5 นัด
GSM8K
การเปรียบเทียบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับชั้นเรียนที่มักต้องมีการให้เหตุผลหลายขั้นตอน
3-5 ช็อต
AGIEval
การเปรียบเทียบ AGIEval ทดสอบความฉลาดทั่วไปของโมเดลภาษา โดยใช้คำถามที่ได้จากการสอบจริงที่ออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์
3 ช็อต, CoT
BBH
การเปรียบเทียบ BBH (BIG-Bench Hard) มุ่งเน้นงานที่ถือว่าเหนือกว่าความสามารถของโมเดลภาษาในปัจจุบัน โดยทดสอบขีดจำกัดในโดเมนการให้เหตุผลและความเข้าใจที่หลากหลาย
3 ช็อต, F1
วาง
DROP เป็นเกณฑ์เปรียบเทียบด้านการอ่านที่ต้องมีการให้เหตุผลที่ชัดเจนในย่อหน้าต่างๆ
5 นัด
วิโนกรานเด
การเปรียบเทียบ Winogrande จะทดสอบความสามารถของโมเดลภาษาเพื่อแก้ปัญหางานเติมคำในช่องว่างที่ไม่ชัดเจนด้วยไบนารีออปชัน ซึ่งจำเป็นต้องมีการให้เหตุผลทั่วไปสามัญสำนึก
10 นัด
HellaSwag
การเปรียบเทียบ HellaSwag จะท้าทายความสามารถของโมเดลภาษาในการทำความเข้าใจและใช้การให้เหตุผลตามสามัญสำนึกด้วยการเลือกตอนจบที่สมเหตุสมผลที่สุดของเรื่องราว
4 ช็อต
คณิตศาสตร์
MATH ประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาคณิตศาสตร์ที่ซับซ้อน ซึ่งจำเป็นต้องมีการให้เหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์
0-ช็อต
ARC-e
การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามวิทยาศาสตร์แบบปรนัยจริงในระดับโรงเรียน
0-ช็อต
PIQA
การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาเพื่อทำความเข้าใจและนำความรู้ทั่วไปด้านกายภาพไปใช้โดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน
0-ช็อต
SIQA
การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา
0-ช็อต
Boolq
การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามธรรมชาติ เป็นการทดสอบความสามารถของโมเดลในการทำงานอนุมานภาษาธรรมชาติในโลกแห่งความเป็นจริง
5 นัด
TriviaQA
เกณฑ์มาตรฐาน TriviaQA จะทดสอบทักษะการอ่านทำความเข้าใจด้วยคำถามพร้อมหลักฐานประกอบ 3 ประการ
5 นัด
NQ
การเปรียบเทียบ NQ (Natural Questions) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบในบทความ Wikipedia ทั้งหมด ซึ่งจำลองสถานการณ์การตอบคำถามในโลกแห่งความเป็นจริง
บัตร@1
HumanEval
การเปรียบเทียบ HumanEval ทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่
3 ช็อต
MBPP
การเปรียบเทียบ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาพื้นฐานการเขียนโปรแกรม Python โดยเน้นที่แนวคิดพื้นฐานด้านการเขียนโปรแกรมและการใช้ไลบรารีมาตรฐาน
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
*ข้อมูลเหล่านี้เป็นการเปรียบเทียบสำหรับโมเดลก่อนการฝึก โปรดดูรายละเอียดในรายงานทางเทคนิคเกี่ยวกับประสิทธิภาพร่วมกับวิธีการอื่นๆ
ตระกูลโมเดล Gemma
คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาซอฟต์แวร์
คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์
ตำราอาหาร Gemma
สำรวจคอลเล็กชันสูตรอาหารที่ใช้ได้จริงและตัวอย่างที่แสดงให้เห็นถึงพลังและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายภาพด้วย PaliGemma, การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี
การพัฒนา AI อย่างมีความรับผิดชอบ
ความรับผิดชอบตามการออกแบบ
ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma
การประเมินที่มีประสิทธิภาพและโปร่งใส
การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสเผยให้เห็นข้อจำกัดของโมเดลในการนำแนวทางที่มีความรับผิดชอบไปใช้ในแต่ละกรณี
ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ
ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบจะช่วยสนับสนุนให้นักพัฒนาแอปออกแบบและนำแนวทางปฏิบัติแนะนำสำหรับ AI ที่มีความรับผิดชอบไปใช้
เพิ่มประสิทธิภาพเพื่อ Google Cloud
เมื่อใช้โมเดล Gemma บน Google Cloud คุณสามารถปรับแต่งโมเดลให้เหมาะกับความต้องการที่เฉพาะเจาะจงได้อย่างละเอียดด้วยเครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือก GKE ที่จัดการด้วยตนเอง และทำให้ใช้งานได้ในโครงสร้างพื้นฐานที่ยืดหยุ่นและประหยัดด้วย AI ซึ่งเพิ่มประสิทธิภาพโดย AI
การเร่งการวิจัยทางวิชาการด้วยเครดิต Google Cloud
โครงการวิจัยทางวิชาการได้สรุประยะเวลาการสมัครเมื่อเร็วๆ นี้ โดยมอบเครดิต Google Cloud เพื่อสนับสนุนนักวิจัยในการขยายขอบเขตการค้นพบทางวิทยาศาสตร์โดยใช้โมเดล Gemma เราตื่นเต้นที่จะได้เห็นงานวิจัยใหม่ๆ ที่เกิดจากโครงการริเริ่มนี้
เข้าร่วมชุมชน
เชื่อมต่อ สำรวจ และแชร์ความรู้ของคุณกับคนอื่นๆ ในชุมชนโมเดล ML