Gemma Open Models

กลุ่มผลิตภัณฑ์โมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากงานวิจัยและเทคโนโลยีเดียวกับที่ใช้สร้างโมเดล Gemini

ไอคอนออกแบบมาเพื่อรับผิดชอบ

ออกแบบมาเพื่อรับผิดชอบ

โมเดลเหล่านี้ใช้มาตรการด้านความปลอดภัยที่ครอบคลุม ซึ่งช่วยให้มั่นใจได้ว่าโซลูชัน AI จะมีความรับผิดชอบและเชื่อถือได้ผ่านชุดข้อมูลที่ดูแลจัดการและการปรับแต่งที่เข้มงวด

ไอคอนประสิทธิภาพที่ไม่ตรงกัน

ประสิทธิภาพที่ขนาดไม่ตรงกัน

โมเดล Gemma ได้ผลลัพธ์การเปรียบเทียบที่ยอดเยี่ยมที่ขนาด 2B, 7B, 9B และ 27B ซึ่งมีประสิทธิภาพสูงกว่าโมเดลแบบเปิดที่ใหญ่กว่าบางโมเดล

เฟรมเวิร์กมีความยืดหยุ่น

เฟรมเวิร์กมีความยืดหยุ่น

Keras 3.0 ให้ความสามารถในการใช้งานร่วมกันอย่างราบรื่นกับ JAX, TensorFlow และ PyTorch ทำให้คุณเลือกและเปลี่ยนเฟรมเวิร์กได้อย่างง่ายดายตามงานที่ทำ

ขอแนะนำ
Gemma 2

Gemma 2 ออกแบบใหม่เพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว

5 นัด

MMLU

เกณฑ์ MMLU เป็นการทดสอบที่วัดความกว้างของความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับระหว่างการฝึกล่วงหน้า

25 ภาพ

ARC-C

การเปรียบเทียบ ARC-c คือชุดข้อมูลย่อยที่มุ่งเน้นมากขึ้นของชุดข้อมูล ARC-e ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (แบบฐานการดึงข้อมูลและแบบคำที่พบร่วมกัน)

5 นัด

GSM8K

การเปรียบเทียบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับชั้นเรียนที่มักต้องมีการให้เหตุผลหลายขั้นตอน

3-5-shot

AGIEval

การเปรียบเทียบ AGIEval จะทดสอบความฉลาดทั่วไปของโมเดลภาษาโดยใช้คำถามที่มาจากข้อสอบในชีวิตจริงซึ่งออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์

3 ช็อต, COT

BBH

การเปรียบเทียบ BBH (BIG-Bench Hard) จะมุ่งเน้นที่งานที่ถือว่าเกินความสามารถของโมเดลภาษาในปัจจุบัน เพื่อทดสอบขีดจำกัดของโมเดลในด้านการให้เหตุผลและการทําความเข้าใจในโดเมนต่างๆ

3 ช็อต, F1

วาง

DROP เป็นการทดสอบการอ่านเพื่อความเข้าใจที่ต้องใช้การแยกแยะเหตุผลในย่อหน้า

5 นัด

Winogrande

การทดสอบ Winogrande จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาแบบเติมคำในช่องว่างที่คลุมเครือด้วยตัวเลือกแบบ 2 ทางเลือก ซึ่งต้องใช้การหาเหตุผลแบบสามัญสำนึกทั่วไป

10 ช็อต

HellaSwag

เกณฑ์ HellaSwag ท้าทายความสามารถของโมเดลภาษาในการเข้าใจและใช้เหตุผลเชิงตรรกะทั่วไปโดยการเลือกตอนจบที่สมเหตุสมผลที่สุดสำหรับเรื่องราว

4 ช็อต

MATH

MATH จะประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาทางคณิตศาสตร์ที่ซับซ้อน ซึ่งต้องใช้การหาเหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์

0 ช็อต

ARC-e

การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามวิทยาศาสตร์แบบปรนัยจริงในระดับโรงเรียน

0-ช็อต

PIQA

การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาเพื่อทำความเข้าใจและนำความรู้ทั่วไปด้านกายภาพไปใช้โดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน

0 ช็อต

SIQA

การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา

0-ช็อต

Boolq

การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามธรรมชาติ เป็นการทดสอบความสามารถของโมเดลในการทำงานอนุมานภาษาธรรมชาติในโลกแห่งความเป็นจริง

5 นัด

TriviaQA

เกณฑ์เปรียบเทียบของ TriviaQA จะทดสอบทักษะการอ่านเพื่อความเข้าใจด้วยชุดข้อมูล 3 รายการ ได้แก่ คำถาม คำตอบ และหลักฐาน

5 นัด

NQ

การทดสอบ NQ (คำถามที่เป็นภาษาธรรมชาติ) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบภายในบทความ Wikipedia ทั้งหมด โดยจำลองสถานการณ์การตอบคำถามในชีวิตจริง

pass@1

HumanEval

การทดสอบประสิทธิภาพ HumanEval จะทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่

3 ช็อต

MBPP

การทดสอบประสิทธิภาพ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาการเขียนโปรแกรม Python พื้นฐาน โดยมุ่งเน้นที่แนวคิดการเขียนโปรแกรมพื้นฐานและการใช้ไลบรารีมาตรฐาน

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 พันล้าน

42.3

Gemma 2

2.6 พันล้าน

51.3

Mistral

7B

62.5

LLAMA 3

8B

66.6

Gemma 1

7 พันล้าน

64.4

Gemma 2

9B

71.3

Gemma 2

2.7 พันล้าน

75.2

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9B

68.4

Gemma 2

2.7 พันล้าน

71.4

Gemma 1

2.5 พันล้าน

15.1

Gemma 2

2.6 พันล้าน

23.9

Mistral

7 พันล้าน

39.6

LLAMA 3

8B

45.7

Gemma 1

7B

51.8

Gemma 2

9B

68.6

Gemma 2

2.7 พันล้าน

74.0

Gemma 1

2.5 พันล้าน

24.2

Gemma 2

2.6 พันล้าน

30.6

Mistral

7B

44.0

LLAMA 3

8B

45.9

Gemma 1

7 พันล้าน

44.9

Gemma 2

9 พันล้าน

52.8

Gemma 2

2.7 พันล้าน

55.1

Gemma 1

2.5 พันล้าน

35.2

Gemma 2

2.6 พันล้าน

41.9

Mistral

7 พันล้าน

56.0

LLAMA 3

8 พันล้าน

61.1

Gemma 1

7 พันล้าน

59.0

Gemma 2

9B

68.2

Gemma 2

2.7 พันล้าน

74.9

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

52.0

Mistral

7B

63.8

LLAMA 3

8 พันล้าน

58.4

Gemma 1

7B

56.3

Gemma 2

9B

69.4

Gemma 2

2.7 หมื่นล้าน

74.2

Gemma 1

2.5 พันล้าน

66.8

Gemma 2

2.6 พันล้าน

70.9

Mistral

7B

78.5

LLAMA 3

8B

76.1

Gemma 1

7B

79.0

Gemma 2

9B

80.6

Gemma 2

2.7 พันล้าน

83.7

Gemma 1

2.5 พันล้าน

71.7

Gemma 2

2.6 พันล้าน

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9B

81.9

Gemma 2

2.7 พันล้าน

86.4

Gemma 1

2.5 พันล้าน

11.8

Gemma 2

2.6 พันล้าน

15.0

Mistral

7 พันล้าน

12.7

Gemma 1

7B

24.3

Gemma 2

9B

36.6

Gemma 2

2.7 พันล้าน

42.3

Gemma 1

2.5 พันล้าน

73.2

Gemma 2

2.6 พันล้าน

80.1

Mistral

7B

80.5

Gemma 1

7 พันล้าน

81.5

Gemma 2

9B

88.0

Gemma 2

2.7 พันล้าน

88.6

Gemma 1

2.5 พันล้าน

77.3

Gemma 2

2.6 พันล้าน

77.8

Mistral

7B

82.2

Gemma 1

7 พันล้าน

81.2

Gemma 2

9B

81.7

Gemma 2

2.7 พันล้าน

83.2

Gemma 1

2.5 พันล้าน

49.7

Gemma 2

2.6 พันล้าน

51.9

Mistral

7 พันล้าน

47.0

Gemma 1

7B

51.8

Gemma 2

9 พันล้าน

53.4

Gemma 2

2.7 พันล้าน

53.7

Gemma 1

2.5 พันล้าน

69.4

Gemma 2

2.6 พันล้าน

72.5

Mistral

7B

83.2

Gemma 1

7B

83.2

Gemma 2

9B

84.2

Gemma 2

2.7 พันล้าน

84.8

Gemma 1

2.5 พันล้าน

53.2

Gemma 2

2.6 พันล้าน

59.4

Mistral

7B

62.5

Gemma 1

7B

63.4

Gemma 2

9B

76.6

Gemma 2

2.7 พันล้าน

83.7

Gemma 1

2.5 พันล้าน

12.5

Gemma 2

2.6 พันล้าน

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9B

29.2

Gemma 2

2.7 หมื่นล้าน

34.5

Gemma 1

2.5 พันล้าน

22.0

Gemma 2

2.6 พันล้าน

17.7

Mistral

7B

26.2

Gemma 1

7 พันล้าน

32.3

Gemma 2

9B

40.2

Gemma 2

2.7 พันล้าน

51.8

Gemma 1

2.5 พันล้าน

29.2

Gemma 2

2.6 พันล้าน

29.6

Mistral

7 พันล้าน

40.2

Gemma 1

7B

44.4

Gemma 2

9 พันล้าน

52.4

Gemma 2

2.7 พันล้าน

62.6

*นี่คือการเปรียบเทียบสำหรับโมเดลที่ผ่านการฝึกล่วงหน้า โปรดดูรายละเอียดเกี่ยวกับประสิทธิภาพด้วยวิธีการอื่นๆ ในรายงานทางเทคนิค

กลุ่มผลิตภัณฑ์โมเดล Gemma

ผลงานใหม่

Gemma 2

Gemma 2 มี 3 รุ่นใหม่อันทรงประสิทธิภาพและมีประสิทธิภาพให้เลือกใช้งานในขนาดพารามิเตอร์ 2, 9 และ 27 พันล้าน โดยทั้งหมดมาพร้อมความปลอดภัยขั้นสูงในตัว

ผลงานใหม่

DataGemma

DataGemma เป็นโมเดลแบบเปิดโมเดลแรกๆ ที่ออกแบบมาเพื่อเชื่อมต่อ LLM กับข้อมูลในชีวิตจริงที่ครอบคลุมซึ่งดึงมาจาก Data Commons ของ Google

Gemma 1

โมเดล Gemma เป็นโมเดลภาษาขนาดใหญ่แบบถอดรหัสข้อความเป็นข้อความเท่านั้นที่มีน้ำหนักเบา ซึ่งได้รับการฝึกด้วยชุดข้อมูลข้อความ โค้ด และเนื้อหาทางคณิตศาสตร์จำนวนมหาศาลสำหรับงานประมวลผลภาษาธรรมชาติที่หลากหลาย

RecurrentGemma

RecurrentGemma เป็นโมเดลที่แตกต่างจากโมเดลอื่นๆ ทางเทคนิค ซึ่งใช้ประโยชน์จากเครือข่ายประสาทแบบซ้ำและความสนใจในพื้นที่เพื่อปรับปรุงประสิทธิภาพหน่วยความจำ

PaliGemma

PaliGemma เป็นโมเดลภาษาที่มองเห็นภาพแบบเปิดซึ่งได้รับแรงบันดาลใจจาก PaLI-3 โดยใช้ SigLIP และ Gemma ซึ่งออกแบบมาเพื่อเป็นโมเดลอเนกประสงค์สำหรับการนำไปใช้กับงานภาษาที่มองเห็นภาพได้หลากหลาย

CodeGemma

การควบคุมจากรากฐานของโมเดล Gemma ดั้งเดิมก่อนการฝึกของเราทำให้ CodeGemma ได้รับการเขียนโค้ดที่ทรงพลังและความสามารถในการสร้างได้ในขนาดที่เหมาะกับคอมพิวเตอร์ในพื้นที่ของคุณ

คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาแอป

คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์

Gemma Cookbook

สำรวจคอลเล็กชันสูตรอาหารที่ใช้ได้จริงและตัวอย่างที่แสดงให้เห็นถึงพลังและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายภาพด้วย PaliGemma, การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี

การพัฒนา AI อย่างมีความรับผิดชอบ

การออกแบบโดยคำนึงถึงความรับผิดชอบ

ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma

การประเมินที่มีประสิทธิภาพและโปร่งใส

การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสจะเปิดเผยข้อจํากัดของโมเดลเพื่อใช้แนวทางที่รับผิดชอบสําหรับแต่ละกรณีการใช้งาน

ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ

เครื่องมือ Generative AI อย่างมีความรับผิดชอบสนับสนุนนักพัฒนาซอฟต์แวร์ในการออกแบบและใช้แนวทางปฏิบัติแนะนำเกี่ยวกับ AI อย่างมีความรับผิดชอบ

ไอคอน Google Cloud

เพิ่มประสิทธิภาพสำหรับ Google Cloud

เมื่อใช้โมเดล Gemma ใน Google Cloud คุณจะปรับแต่งโมเดลให้ตรงกับความต้องการเฉพาะของคุณได้อย่างละเอียดด้วยเครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือกแบบจัดการเองของ GKE และนำไปใช้งานได้กับโครงสร้างพื้นฐานที่ปรับให้เหมาะกับ AI อย่างยืดหยุ่นและคุ้มค่า

เร่งงานวิจัยทางวิชาการด้วยเครดิต Google Cloud

โปรแกรมการวิจัยทางวิชาการเพิ่งสิ้นสุดระยะเวลาการสมัคร โดยมอบเครดิต Google Cloud เพื่อสนับสนุนนักวิจัยที่ขยายขอบเขตการค้นพบทางวิทยาศาสตร์โดยใช้โมเดล Gemma เราหวังว่าจะได้เห็นการวิจัยที่ก้าวล้ำซึ่งเกิดขึ้นจากโครงการริเริ่มนี้

โปรดติดตามโอกาสในอนาคตเพื่อพัฒนางานวิจัยด้วย Google Cloud

เข้าร่วมชุมชน

เชื่อมต่อ สำรวจ และแชร์ความรู้ของคุณกับคนอื่นๆ ในชุมชนโมเดล ML