Gemma Open Models

กลุ่มผลิตภัณฑ์โมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งพัฒนาขึ้นจากงานวิจัยและเทคโนโลยีเดียวกับที่ใช้สร้างโมเดล Gemini

ไอคอนออกแบบมาเพื่อรับผิดชอบ

ออกแบบมาเพื่อรับผิดชอบ

โมเดลเหล่านี้ใช้มาตรการด้านความปลอดภัยที่ครอบคลุม ซึ่งช่วยให้มั่นใจได้ว่าโซลูชัน AI จะมีความรับผิดชอบและเชื่อถือได้ผ่านชุดข้อมูลที่ดูแลจัดการและการปรับแต่งที่เข้มงวด

ไอคอนประสิทธิภาพที่ไม่ตรงกัน

ประสิทธิภาพที่ขนาดไม่ตรงกัน

โมเดล Gemma ได้ผลลัพธ์การเปรียบเทียบที่ยอดเยี่ยมในขนาด 2, 000 ล้าน 7, 000 ล้าน 9, 000 ล้าน และ 27, 000 ล้าน แม้แต่โมเดลแบบเปิดขนาดใหญ่กว่าบางรุ่นยังมีประสิทธิภาพต่ำกว่า

เฟรมเวิร์กมีความยืดหยุ่น

การทำให้ใช้งานได้แบบยืดหยุ่น

ติดตั้งใช้งานในอุปกรณ์เคลื่อนที่ เว็บ และระบบคลาวด์ได้อย่างราบรื่นโดยใช้ Keras, JAX, MediaPipe, PyTorch, Hugging Face และอื่นๆ

ลองใช้ Gemma 2

Gemma 2 ออกแบบมาใหม่เพื่อประสิทธิภาพที่เหนือชั้นและประสิทธิภาพที่ไม่มีใครเทียบได้ โดยเพิ่มประสิทธิภาพเพื่อให้การอนุมานเป็นไปอย่างรวดเร็วในฮาร์ดแวร์ต่างๆ

5 นัด

MMLU

เกณฑ์ MMLU เป็นการทดสอบที่วัดความกว้างของความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับระหว่างการฝึกล่วงหน้า

25 ภาพ

ARC-C

การเปรียบเทียบ ARC-c คือชุดข้อมูลย่อยที่มุ่งเน้นมากขึ้นของชุดข้อมูล ARC-e ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (แบบฐานการดึงข้อมูลและแบบคำที่พบร่วมกัน)

5 นัด

GSM8K

การทดสอบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับประถมศึกษาซึ่งมักต้องใช้การหาเหตุผลหลายขั้นตอน

3-5-shot

AGIEval

การเปรียบเทียบ AGIEval จะทดสอบความฉลาดทั่วไปของโมเดลภาษาโดยใช้คำถามที่มาจากข้อสอบในชีวิตจริงซึ่งออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์

3 ช็อต, COT

BBH

การเปรียบเทียบ BBH (BIG-Bench Hard) จะมุ่งเน้นที่งานที่ถือว่าเกินความสามารถของโมเดลภาษาในปัจจุบัน เพื่อทดสอบขีดจำกัดของโมเดลในด้านการให้เหตุผลและการทําความเข้าใจในโดเมนต่างๆ

3 ช็อต, F1

วาง

DROP เป็นการทดสอบการอ่านเพื่อความเข้าใจที่ต้องใช้การแยกแยะเหตุผลในย่อหน้า

5 นัด

Winogrande

การทดสอบ Winogrande จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาแบบเติมคำในช่องว่างที่คลุมเครือด้วยตัวเลือกแบบ 2 ค่า ซึ่งต้องใช้การหาเหตุผลแบบสามัญสำนึกทั่วไป

10 ช็อต

HellaSwag

เกณฑ์ HellaSwag ท้าทายความสามารถของโมเดลภาษาในการเข้าใจและใช้เหตุผลเชิงตรรกะทั่วไปโดยการเลือกตอนจบที่สมเหตุสมผลที่สุดสำหรับเรื่องราว

4 ช็อต

MATH

MATH จะประเมินความสามารถของโมเดลภาษาในการแก้ปัญหาโจทย์คณิตศาสตร์ที่ซับซ้อน ซึ่งต้องใช้การหาเหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์

0 ช็อต

ARC-e

การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามแบบหลายตัวเลือกเกี่ยวกับวิทยาศาสตร์ระดับประถมศึกษาที่แท้จริง

0 ช็อต

PIQA

การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาในการทำความเข้าใจและใช้ความรู้ทั่วไปเกี่ยวกับเรื่องต่างๆ ในชีวิตจริงโดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน

0 ช็อต

SIQA

เกณฑ์ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและผลกระทบทางสังคม

0 ช็อต

Boolq

การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามปกติ ซึ่งทดสอบความสามารถของโมเดลในการทํางานอนุมานภาษาธรรมชาติในชีวิตจริง

5 นัด

TriviaQA

เกณฑ์เปรียบเทียบของ TriviaQA จะทดสอบทักษะการอ่านเพื่อความเข้าใจด้วยชุดข้อมูล 3 รายการ ได้แก่ คำถาม คำตอบ และหลักฐาน

5 นัด

NQ

การเปรียบเทียบ NQ (คำถามที่เป็นภาษาธรรมชาติ) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบภายในบทความ Wikipedia ทั้งหมด โดยจำลองสถานการณ์การตอบคำถามในชีวิตจริง

pass@1

HumanEval

การทดสอบประสิทธิภาพ HumanEval จะทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่

3 ช็อต

MBPP

การทดสอบประสิทธิภาพ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาการเขียนโปรแกรม Python พื้นฐาน โดยมุ่งเน้นที่แนวคิดการเขียนโปรแกรมพื้นฐานและการใช้ไลบรารีมาตรฐาน

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2.5 พันล้าน

42.3

Gemma 2

2.6 พันล้าน

51.3

Mistral

7B

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9B

71.3

Gemma 2

2.7 พันล้าน

75.2

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9B

68.4

Gemma 2

2.7 พันล้าน

71.4

Gemma 1

2.5 พันล้าน

15.1

Gemma 2

2.6 พันล้าน

23.9

Mistral

7B

39.6

LLAMA 3

8B

45.7

Gemma 1

7B

51.8

Gemma 2

9B

68.6

Gemma 2

2.7 พันล้าน

74.0

Gemma 1

2.5 พันล้าน

24.2

Gemma 2

2.6 พันล้าน

30.6

Mistral

7B

44.0

LLAMA 3

8B

45.9

Gemma 1

7B

44.9

Gemma 2

9B

52.8

Gemma 2

2.7 พันล้าน

55.1

Gemma 1

2.5 พันล้าน

35.2

Gemma 2

2.6 พันล้าน

41.9

Mistral

7B

56.0

LLAMA 3

8B

61.1

Gemma 1

7B

59.0

Gemma 2

9B

68.2

Gemma 2

2.7 พันล้าน

74.9

Gemma 1

2.5 พันล้าน

48.5

Gemma 2

2.6 พันล้าน

52.0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7B

56.3

Gemma 2

9B

69.4

Gemma 2

2.7 พันล้าน

74.2

Gemma 1

2.5 พันล้าน

66.8

Gemma 2

2.6 พันล้าน

70.9

Mistral

7B

78.5

LLAMA 3

8B

76.1

Gemma 1

7B

79.0

Gemma 2

9B

80.6

Gemma 2

2.7 พันล้าน

83.7

Gemma 1

2.5 พันล้าน

71.7

Gemma 2

2.6 พันล้าน

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9B

81.9

Gemma 2

2.7 พันล้าน

86.4

Gemma 1

2.5 พันล้าน

11.8

Gemma 2

2.6 พันล้าน

15.0

Mistral

7B

12.7

Gemma 1

7B

24.3

Gemma 2

9B

36.6

Gemma 2

2.7 พันล้าน

42.3

Gemma 1

2.5 พันล้าน

73.2

Gemma 2

2.6 พันล้าน

80.1

Mistral

7B

80.5

Gemma 1

7B

81.5

Gemma 2

9B

88.0

Gemma 2

2.7 พันล้าน

88.6

Gemma 1

2.5 พันล้าน

77.3

Gemma 2

2.6 พันล้าน

77.8

Mistral

7B

82.2

Gemma 1

7B

81.2

Gemma 2

9B

81.7

Gemma 2

2.7 พันล้าน

83.2

Gemma 1

2.5 พันล้าน

49.7

Gemma 2

2.6 พันล้าน

51.9

Mistral

7B

47.0

Gemma 1

7B

51.8

Gemma 2

9B

53.4

Gemma 2

2.7 พันล้าน

53.7

Gemma 1

2.5 พันล้าน

69.4

Gemma 2

2.6 พันล้าน

72.5

Mistral

7B

83.2

Gemma 1

7B

83.2

Gemma 2

9B

84.2

Gemma 2

2.7 พันล้าน

84.8

Gemma 1

2.5 พันล้าน

53.2

Gemma 2

2.6 พันล้าน

59.4

Mistral

7B

62.5

Gemma 1

7B

63.4

Gemma 2

9B

76.6

Gemma 2

2.7 พันล้าน

83.7

Gemma 1

2.5 พันล้าน

12.5

Gemma 2

2.6 พันล้าน

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9B

29.2

Gemma 2

2.7 พันล้าน

34.5

Gemma 1

2.5 พันล้าน

22.0

Gemma 2

2.6 พันล้าน

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9B

40.2

Gemma 2

2.7 พันล้าน

51.8

Gemma 1

2.5 พันล้าน

29.2

Gemma 2

2.6 พันล้าน

29.6

Mistral

7B

40.2

Gemma 1

7B

44.4

Gemma 2

9B

52.4

Gemma 2

2.7 พันล้าน

62.6

*นี่คือการเปรียบเทียบสำหรับโมเดลที่ผ่านการฝึกล่วงหน้า โปรดดูรายละเอียดเกี่ยวกับประสิทธิภาพด้วยวิธีการอื่นๆ ในรายงานทางเทคนิค

PaliGemma 2 ใหม่

PaliGemma 2 เพิ่มความสามารถในการมองเห็นที่ปรับแต่งได้ง่ายให้กับโมเดลภาษา Gemma 2 ซึ่งช่วยให้แอปพลิเคชันต่างๆ มากมายรวมการทำความเข้าใจข้อความและรูปภาพเข้าด้วยกันได้

DataGemma

DataGemma เป็นโมเดลแบบเปิดโมเดลแรกๆ ที่ออกแบบมาเพื่อเชื่อมต่อ LLM กับข้อมูลในชีวิตจริงที่ครอบคลุมซึ่งดึงมาจาก Data Commons ของ Google

ขอบเขต Gemma

Gemma Scope มอบความโปร่งใสอย่างที่ไม่เคยมีมาก่อนให้แก่นักวิจัยเกี่ยวกับกระบวนการตัดสินใจของโมเดล Gemma 2

สำรวจ Gemmaverse

ระบบนิเวศอันกว้างใหญ่ของโมเดลและเครื่องมือ Gemma ที่ชุมชนสร้างขึ้น ซึ่งพร้อมที่จะขับเคลื่อนและสร้างแรงบันดาลใจให้กับนวัตกรรมของคุณ

ทำให้โมเดลใช้งานได้

เลือกเป้าหมายของการติดตั้งใช้งาน

ไอคอน "ทำให้ใช้งานได้บนอุปกรณ์เคลื่อนที่"อุปกรณ์เคลื่อนที่

ติดตั้งใช้งานในอุปกรณ์ด้วย Google AI Edge

ติดตั้งใช้งานในอุปกรณ์โดยตรงเพื่อให้ฟังก์ชันการทำงานแบบออฟไลน์ที่มีเวลาในการตอบสนองต่ำ เหมาะสําหรับแอปพลิเคชันที่ต้องมีความตอบสนองและความเป็นส่วนตัวแบบเรียลไทม์ เช่น แอปบนอุปกรณ์เคลื่อนที่ อุปกรณ์ IoT และระบบฝัง

ไอคอนเว็บเว็บ

ผสานรวมเข้ากับเว็บแอปพลิเคชันได้อย่างราบรื่น

เพิ่มประสิทธิภาพเว็บไซต์และเว็บเซอร์วิสด้วยความสามารถขั้นสูงของ AI ซึ่งเปิดใช้ฟีเจอร์แบบอินเทอร์แอกทีฟ เนื้อหาที่ปรับเปลี่ยนในแบบของคุณ และการทำงานอัตโนมัติที่ชาญฉลาด

ไอคอน Cloudระบบคลาวด์

ปรับขนาดได้อย่างง่ายดายด้วยโครงสร้างพื้นฐานระบบคลาวด์

ใช้ประโยชน์จากความสามารถในการปรับขนาดและความยืดหยุ่นของคลาวด์เพื่อจัดการกับการใช้งานขนาดใหญ่ ภาระงานที่หนักหน่วง และแอปพลิเคชัน AI ที่ซับซ้อน

ปลดล็อกการสื่อสารทั่วโลก

เข้าร่วมการแข่งขัน Kaggle ทั่วโลก สร้างตัวแปรของโมเดล Gemma สำหรับภาษาที่เฉพาะเจาะจงหรือแง่มุมทางวัฒนธรรมที่ไม่เหมือนใคร