Gemma Open Models
กลุ่มผลิตภัณฑ์โมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากงานวิจัยและเทคโนโลยีเดียวกับที่ใช้สร้างโมเดล Gemini
ขอแนะนำ
Gemma 2
Gemma 2 ออกแบบมาเพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว
5 นัด
MMLU
การเปรียบเทียบ MMLU เป็นการทดสอบที่วัดความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับในระหว่างการฝึกล่วงหน้า
25 ภาพ
ARC-C
การเปรียบเทียบ ARC-c คือชุดย่อยที่โฟกัสของชุดข้อมูล ARC-e มากกว่า ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (Retrieval-base และ wordrence)
5 นัด
GSM8K
การทดสอบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับประถมศึกษาซึ่งมักต้องใช้การหาเหตุผลหลายขั้นตอน
3-5-shot
AGIEval
การเปรียบเทียบ AGIEval จะทดสอบความฉลาดทั่วไปของโมเดลภาษาโดยใช้คำถามที่มาจากข้อสอบในชีวิตจริงซึ่งออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์
3 ช็อต, CoT
BBH
การเปรียบเทียบ BBH (BIG-Bench Hard) จะมุ่งเน้นที่งานที่ถือว่าเกินความสามารถของโมเดลภาษาในปัจจุบัน เพื่อทดสอบขีดจำกัดของโมเดลในโดเมนการอนุมานและทำความเข้าใจที่หลากหลาย
3 ช็อต, F1
วาง
DROP เป็นเกณฑ์เปรียบเทียบด้านการอ่านที่ต้องมีการให้เหตุผลที่ชัดเจนในย่อหน้าต่างๆ
5 นัด
วิโนกรานเด
การเปรียบเทียบ Winogrande จะทดสอบความสามารถของโมเดลภาษาเพื่อแก้ปัญหางานเติมคำในช่องว่างที่ไม่ชัดเจนด้วยไบนารีออปชัน ซึ่งจำเป็นต้องมีการให้เหตุผลทั่วไปสามัญสำนึก
10 ช็อต
HellaSwag
เกณฑ์ HellaSwag ท้าทายความสามารถของโมเดลภาษาในการเข้าใจและใช้เหตุผลเชิงตรรกะทั่วไปโดยการเลือกตอนจบที่สมเหตุสมผลที่สุดสำหรับเรื่องราว
4 ช็อต
คณิตศาสตร์
MATH ประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาคณิตศาสตร์ที่ซับซ้อน ซึ่งจำเป็นต้องมีการให้เหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์
0 ช็อต
ARC-e
การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามแบบหลายตัวเลือกเกี่ยวกับวิทยาศาสตร์ระดับประถมศึกษาที่แท้จริง
0-ช็อต
PIQA
การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาในการทำความเข้าใจและใช้ความรู้ทั่วไปเกี่ยวกับเรื่องต่างๆ ในชีวิตจริงโดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน
0-ช็อต
ซีคิวกา
การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา
0 ช็อต
บูลค์
การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามปกติ ซึ่งทดสอบความสามารถของโมเดลในการทํางานอนุมานภาษาธรรมชาติในชีวิตจริง
5 นัด
TriviaQA
เกณฑ์เปรียบเทียบของ TriviaQA จะทดสอบทักษะการอ่านเพื่อความเข้าใจด้วยชุดข้อมูล 3 รายการ ได้แก่ คำถาม คำตอบ และหลักฐาน
5 นัด
NQ
การเปรียบเทียบ NQ (Natural Questions) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบในบทความ Wikipedia ทั้งหมด ซึ่งจำลองสถานการณ์การตอบคำถามในโลกแห่งความเป็นจริง
pass@1
HumanEval
การเปรียบเทียบ HumanEval ทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่
3 ช็อต
MBPP
การเปรียบเทียบ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาพื้นฐานการเขียนโปรแกรม Python โดยเน้นที่แนวคิดพื้นฐานด้านการเขียนโปรแกรมและการใช้งานไลบรารีมาตรฐาน
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7 พันล้าน
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7B
LLAMA 3
8 พันล้าน
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7 พันล้าน
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7B
Gemma 1
7 พันล้าน
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
มิสทรัล
7 พันล้าน
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7 พันล้าน
Gemma 2
9 พันล้าน
Gemma 2
2.7 หมื่นล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7B
Gemma 1
7B
Gemma 2
9 พันล้าน
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 พันล้าน
Gemma 1
2.5 พันล้าน
Gemma 2
2.6 พันล้าน
Mistral
7 พันล้าน
Gemma 1
7B
Gemma 2
9B
Gemma 2
2.7 หมื่นล้าน
*ข้อมูลเหล่านี้คือข้อมูลเปรียบเทียบสำหรับโมเดลก่อนการฝึก โปรดดูรายละเอียดเกี่ยวกับประสิทธิภาพร่วมกับวิธีการอื่นๆ ในรายงานทางเทคนิค
ตระกูลโมเดล Gemma
คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาซอฟต์แวร์
คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์
ตำราอาหาร Gemma
สำรวจคอลเล็กชันสูตรและตัวอย่างที่ใช้งานได้จริงซึ่งแสดงถึงประสิทธิภาพและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายแทนเสียงในรูปภาพด้วย PaliGemma การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี
การพัฒนา AI อย่างมีความรับผิดชอบ
การออกแบบโดยคำนึงถึงความรับผิดชอบ
ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma
การประเมินที่มีประสิทธิภาพและโปร่งใส
การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสเผยให้เห็นข้อจำกัดของโมเดลในการนำแนวทางที่มีความรับผิดชอบไปใช้สำหรับแต่ละกรณีการใช้งาน
ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ
ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบจะช่วยสนับสนุนให้นักพัฒนาแอปออกแบบและนำแนวทางปฏิบัติแนะนำสำหรับ AI ที่มีความรับผิดชอบไปใช้
เพิ่มประสิทธิภาพสำหรับ Google Cloud
เมื่อใช้โมเดล Gemma บน Google Cloud คุณจะปรับแต่งโมเดลตามความต้องการที่เฉพาะเจาะจงได้โดยใช้เครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือกที่มีการจัดการด้วยตนเองของ GKE และติดตั้งใช้งานโมเดลดังกล่าวกับโครงสร้างพื้นฐานที่ยืดหยุ่นและคุ้มค่าซึ่งเพิ่มประสิทธิภาพด้วย AI
การเร่งการวิจัยทางวิชาการด้วยเครดิต Google Cloud
โปรแกรมการวิจัยทางวิชาการเพิ่งสิ้นสุดระยะเวลาการสมัคร โดยมอบเครดิต Google Cloud เพื่อสนับสนุนนักวิจัยที่ขยายขอบเขตการค้นพบทางวิทยาศาสตร์โดยใช้โมเดล Gemma เราตื่นเต้นที่จะได้เห็นงานวิจัยใหม่ๆ ที่ได้จากโครงการริเริ่มนี้
เข้าร่วมชุมชน
เชื่อมต่อ สำรวจ และแชร์ความรู้กับผู้อื่นในชุมชนโมเดล ML