Gemma Open Models

กลุ่มผลิตภัณฑ์โมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากงานวิจัยและเทคโนโลยีเดียวกับที่ใช้สร้างโมเดล Gemini

ไอคอนออกแบบมาเพื่อรับผิดชอบ

ออกแบบอย่างรับผิดชอบ

โมเดลเหล่านี้ใช้มาตรการด้านความปลอดภัยที่ครอบคลุม ซึ่งช่วยให้มั่นใจได้ว่าโซลูชัน AI จะมีความรับผิดชอบและเชื่อถือได้ผ่านชุดข้อมูลที่ดูแลจัดการและการปรับแต่งที่เข้มงวด

ไอคอนประสิทธิภาพที่ไม่ตรงกัน

มีประสิทธิภาพที่เหนือกว่าทุกขนาด

โมเดล Gemma ได้ผลลัพธ์การเปรียบเทียบที่ยอดเยี่ยมในขนาด 2,000 ล้าน 7,000 ล้าน 9,000 ล้าน และ 27,000 ล้าน โมเดลนี้ยังมีประสิทธิภาพดีกว่าโมเดลแบบเปิดขนาดใหญ่บางรุ่นด้วย

เฟรมเวิร์กที่ยืดหยุ่น

เฟรมเวิร์กที่ยืดหยุ่น

Keras 3.0 ให้ความสามารถในการใช้งานร่วมกันอย่างราบรื่นกับ JAX, TensorFlow และ PyTorch ทำให้คุณเลือกและเปลี่ยนเฟรมเวิร์กได้อย่างง่ายดายตามงานที่ทำ

ขอแนะนำ
Gemma 2

Gemma 2 ออกแบบมาเพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว

5 นัด

MMLU

การเปรียบเทียบ MMLU เป็นการทดสอบที่วัดความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับในระหว่างการฝึกล่วงหน้า

25 ภาพ

ARC-C

การเปรียบเทียบ ARC-c คือชุดย่อยที่โฟกัสของชุดข้อมูล ARC-e มากกว่า ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (Retrieval-base และ wordrence)

5 นัด

GSM8K

การทดสอบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับประถมศึกษาซึ่งมักต้องใช้การหาเหตุผลหลายขั้นตอน

3-5-shot

AGIEval

การเปรียบเทียบ AGIEval จะทดสอบความฉลาดทั่วไปของโมเดลภาษาโดยใช้คำถามที่มาจากข้อสอบในชีวิตจริงซึ่งออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์

3 ช็อต, CoT

BBH

การเปรียบเทียบ BBH (BIG-Bench Hard) จะมุ่งเน้นที่งานที่ถือว่าเกินความสามารถของโมเดลภาษาในปัจจุบัน เพื่อทดสอบขีดจำกัดของโมเดลในโดเมนการอนุมานและทำความเข้าใจที่หลากหลาย

3 ช็อต, F1

วาง

DROP เป็นเกณฑ์เปรียบเทียบด้านการอ่านที่ต้องมีการให้เหตุผลที่ชัดเจนในย่อหน้าต่างๆ

5 นัด

วิโนกรานเด

การเปรียบเทียบ Winogrande จะทดสอบความสามารถของโมเดลภาษาเพื่อแก้ปัญหางานเติมคำในช่องว่างที่ไม่ชัดเจนด้วยไบนารีออปชัน ซึ่งจำเป็นต้องมีการให้เหตุผลทั่วไปสามัญสำนึก

10 ช็อต

HellaSwag

เกณฑ์ HellaSwag ท้าทายความสามารถของโมเดลภาษาในการเข้าใจและใช้เหตุผลเชิงตรรกะทั่วไปโดยการเลือกตอนจบที่สมเหตุสมผลที่สุดสำหรับเรื่องราว

4 ช็อต

คณิตศาสตร์

MATH ประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาคณิตศาสตร์ที่ซับซ้อน ซึ่งจำเป็นต้องมีการให้เหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์

0 ช็อต

ARC-e

การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามแบบหลายตัวเลือกเกี่ยวกับวิทยาศาสตร์ระดับประถมศึกษาที่แท้จริง

0-ช็อต

PIQA

การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาในการทำความเข้าใจและใช้ความรู้ทั่วไปเกี่ยวกับเรื่องต่างๆ ในชีวิตจริงโดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน

0-ช็อต

ซีคิวกา

การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา

0 ช็อต

บูลค์

การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามปกติ ซึ่งทดสอบความสามารถของโมเดลในการทํางานอนุมานภาษาธรรมชาติในชีวิตจริง

5 นัด

TriviaQA

เกณฑ์เปรียบเทียบของ TriviaQA จะทดสอบทักษะการอ่านเพื่อความเข้าใจด้วยชุดข้อมูล 3 รายการ ได้แก่ คำถาม คำตอบ และหลักฐาน

5 นัด

NQ

การเปรียบเทียบ NQ (Natural Questions) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบในบทความ Wikipedia ทั้งหมด ซึ่งจำลองสถานการณ์การตอบคำถามในโลกแห่งความเป็นจริง

pass@1

HumanEval

การเปรียบเทียบ HumanEval ทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่

3 ช็อต

MBPP

การเปรียบเทียบ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาพื้นฐานการเขียนโปรแกรม Python โดยเน้นที่แนวคิดพื้นฐานด้านการเขียนโปรแกรมและการใช้งานไลบรารีมาตรฐาน

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 พันล้าน

42.3

Gemma 2

2.6 พันล้าน

51.3

Mistral

7B

62.5

LLAMA 3

8 พันล้าน

66.6

Gemma 1

7 พันล้าน

64.4

Gemma 2

9 พันล้าน

71.3

Gemma 2

2.7 หมื่นล้าน

75.2

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

55.4

Mistral

7 พันล้าน

60.5

LLAMA 3

8B

59.2

Gemma 1

7 พันล้าน

61.1

Gemma 2

9B

68.4

Gemma 2

2.7 หมื่นล้าน

71.4

Gemma 1

2.5 พันล้าน

15.1

Gemma 2

2.6 พันล้าน

23.9

Mistral

7 พันล้าน

39.6

LLAMA 3

8B

45.7

Gemma 1

7 พันล้าน

51.8

Gemma 2

9B

68.6

Gemma 2

2.7 พันล้าน

74.0

Gemma 1

2.5 พันล้าน

24.2

Gemma 2

2.6 พันล้าน

30.6

มิสทรัล

7 พันล้าน

44.0

LLAMA 3

8B

45.9

Gemma 1

7 พันล้าน

44.9

Gemma 2

9 พันล้าน

52.8

Gemma 2

2.7 หมื่นล้าน

55.1

Gemma 1

2.5 พันล้าน

35.2

Gemma 2

2.6 พันล้าน

41.9

Mistral

7B

56.0

LLAMA 3

8B

61.1

Gemma 1

7 พันล้าน

59.0

Gemma 2

9B

68.2

Gemma 2

2.7 พันล้าน

74.9

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

52.0

Mistral

7 พันล้าน

63.8

LLAMA 3

8B

58.4

Gemma 1

7B

56.3

Gemma 2

9 พันล้าน

69.4

Gemma 2

2.7 หมื่นล้าน

74.2

Gemma 1

2.5 พันล้าน

66.8

Gemma 2

2.6 พันล้าน

70.9

Mistral

7B

78.5

LLAMA 3

8B

76.1

Gemma 1

7B

790.0

Gemma 2

9 พันล้าน

80.6

Gemma 2

2.7 หมื่นล้าน

83.7

Gemma 1

2.5 พันล้าน

71.7

Gemma 2

2.6 พันล้าน

73.0

มิสทรัล

7B

83.0

LLAMA 3

8 พันล้าน

82.0

Gemma 1

7B

82.3

Gemma 2

9 พันล้าน

81.9

Gemma 2

2.7 หมื่นล้าน

86.4

Gemma 1

2.5 พันล้าน

11.8

Gemma 2

2.6 พันล้าน

15.0

มิสทรัล

7B

12.7

Gemma 1

7 พันล้าน

24.3

Gemma 2

9B

36.6

Gemma 2

2.7 หมื่นล้าน

42.3

Gemma 1

2.5 พันล้าน

73.2

Gemma 2

2.6 พันล้าน

80.1

มิสทรัล

7B

80.5

Gemma 1

7 พันล้าน

81.5

Gemma 2

9B

88.0

Gemma 2

2.7 พันล้าน

88.6

Gemma 1

2.5 พันล้าน

77.3

Gemma 2

2.6 พันล้าน

77.8

มิสทรัล

7 พันล้าน

82.2

Gemma 1

7 พันล้าน

81.2

Gemma 2

9B

81.7

Gemma 2

2.7 พันล้าน

83.2

Gemma 1

2.5 พันล้าน

49.7

Gemma 2

2.6 พันล้าน

51.9

มิสทรัล

7B

47.0

Gemma 1

7 พันล้าน

51.8

Gemma 2

9B

53.4

Gemma 2

2.7 หมื่นล้าน

53.7

Gemma 1

2.5 พันล้าน

69.4

Gemma 2

2.6 พันล้าน

72.5

มิสทรัล

7 พันล้าน

83.2

Gemma 1

7B

83.2

Gemma 2

9 พันล้าน

84.2

Gemma 2

2.7 พันล้าน

84.8

Gemma 1

2.5 พันล้าน

53.2

Gemma 2

2.6 พันล้าน

59.4

Mistral

7B

62.5

Gemma 1

7 พันล้าน

63.4

Gemma 2

9 พันล้าน

76.6

Gemma 2

2.7 หมื่นล้าน

83.7

Gemma 1

2.5 พันล้าน

12.5

Gemma 2

2.6 พันล้าน

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9 พันล้าน

29.2

Gemma 2

2.7 พันล้าน

34.5

Gemma 1

2.5 พันล้าน

22.0

Gemma 2

2.6 พันล้าน

17.7

Mistral

7 พันล้าน

26.2

Gemma 1

7B

32.3

Gemma 2

9B

40.2

Gemma 2

2.7 พันล้าน

51.8

Gemma 1

2.5 พันล้าน

29.2

Gemma 2

2.6 พันล้าน

29.6

Mistral

7 พันล้าน

40.2

Gemma 1

7B

44.4

Gemma 2

9B

52.4

Gemma 2

2.7 หมื่นล้าน

62.6

*ข้อมูลเหล่านี้คือข้อมูลเปรียบเทียบสำหรับโมเดลก่อนการฝึก โปรดดูรายละเอียดเกี่ยวกับประสิทธิภาพร่วมกับวิธีการอื่นๆ ในรายงานทางเทคนิค

ตระกูลโมเดล Gemma

มาใหม่

Gemma 2

Gemma 2 มีโมเดลใหม่ ทรงพลัง และมีประสิทธิภาพ 3 รูปแบบ ซึ่งมีให้เลือกในพารามิเตอร์ขนาด 2, 9 และ 27,000 ล้านรายการ โดยทั้งหมดมีความก้าวหน้าด้านความปลอดภัยในตัว

มาใหม่

DataGemma

DataGemma เป็นโมเดลแบบเปิดรุ่นแรกที่ออกแบบมาเพื่อเชื่อมต่อ LLM กับข้อมูลในโลกจริงที่ครอบคลุมซึ่งรวบรวมมาจาก Data Commons ของ Google

Gemma 1

โมเดล Gemma เป็นโมเดลภาษาขนาดใหญ่ที่ใช้ตัวถอดรหัสและตัวถอดรหัสที่ใช้ทรัพยากรน้อย ได้รับการฝึกจากชุดข้อมูลข้อความ โค้ด และเนื้อหาทางคณิตศาสตร์จำนวนมหาศาลสำหรับงานประมวลผลภาษาธรรมชาติที่หลากหลาย

RecurrentGemma

RecurrentGemma เป็นโมเดลที่แตกต่างจากโมเดลอื่นๆ ทางเทคนิค ซึ่งใช้ประโยชน์จากเครือข่ายประสาทแบบซ้ำและความสนใจในพื้นที่เพื่อปรับปรุงประสิทธิภาพหน่วยความจำ

PaliGemma

PaliGemma เป็นโมเดลภาษาวิสัยทัศน์แบบเปิดที่ได้รับแรงบันดาลใจจาก PaLI-3 โดยใช้ประโยชน์จาก SigLIP และ Gemma ที่ออกแบบมาให้เป็นโมเดลอเนกประสงค์สำหรับการถ่ายโอนงานภาษาการมองเห็นที่หลากหลาย

CodeGemma

การควบคุมจากพื้นฐานของโมเดล Gemma ดั้งเดิมก่อนการฝึกของเราทำให้ CodeGemma ได้รับการเขียนโค้ดที่ทรงพลังและความสามารถในการสร้างได้ในขนาดที่เหมาะกับคอมพิวเตอร์ในพื้นที่ของคุณ

คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาซอฟต์แวร์

คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์

ตำราอาหาร Gemma

สำรวจคอลเล็กชันสูตรและตัวอย่างที่ใช้งานได้จริงซึ่งแสดงถึงประสิทธิภาพและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายแทนเสียงในรูปภาพด้วย PaliGemma การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี

การพัฒนา AI อย่างมีความรับผิดชอบ

การออกแบบโดยคำนึงถึงความรับผิดชอบ

ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma

การประเมินที่มีประสิทธิภาพและโปร่งใส

การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสเผยให้เห็นข้อจำกัดของโมเดลในการนำแนวทางที่มีความรับผิดชอบไปใช้สำหรับแต่ละกรณีการใช้งาน

ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ

ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบจะช่วยสนับสนุนให้นักพัฒนาแอปออกแบบและนำแนวทางปฏิบัติแนะนำสำหรับ AI ที่มีความรับผิดชอบไปใช้

ไอคอน Google Cloud

เพิ่มประสิทธิภาพสำหรับ Google Cloud

เมื่อใช้โมเดล Gemma บน Google Cloud คุณจะปรับแต่งโมเดลตามความต้องการที่เฉพาะเจาะจงได้โดยใช้เครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือกที่มีการจัดการด้วยตนเองของ GKE และติดตั้งใช้งานโมเดลดังกล่าวกับโครงสร้างพื้นฐานที่ยืดหยุ่นและคุ้มค่าซึ่งเพิ่มประสิทธิภาพด้วย AI

การเร่งการวิจัยทางวิชาการด้วยเครดิต Google Cloud

โปรแกรมการวิจัยทางวิชาการเพิ่งสิ้นสุดระยะเวลาการสมัคร โดยมอบเครดิต Google Cloud เพื่อสนับสนุนนักวิจัยที่ขยายขอบเขตการค้นพบทางวิทยาศาสตร์โดยใช้โมเดล Gemma เราตื่นเต้นที่จะได้เห็นงานวิจัยใหม่ๆ ที่ได้จากโครงการริเริ่มนี้

โปรดติดตามโอกาสในอนาคตเพื่อพัฒนางานวิจัยด้วย Google Cloud

เข้าร่วมชุมชน

เชื่อมต่อ สำรวจ และแชร์ความรู้กับผู้อื่นในชุมชนโมเดล ML