Mô hình Gemma Open

Một nhóm các mô hình mở, hiện đại và gọn nhẹ được xây dựng từ cùng một nghiên cứu và công nghệ dùng để tạo mô hình Gemini

Biểu tượng thiết kế chịu trách nhiệm

Trách nhiệm từ trong thiết kế

Bằng cách kết hợp các biện pháp an toàn toàn diện, những mô hình này giúp đảm bảo các giải pháp AI có trách nhiệm và đáng tin cậy thông qua các tập dữ liệu được tuyển chọn và điều chỉnh nghiêm ngặt.

Biểu tượng hiệu suất không khớp

Hiệu suất chưa từng có ở quy mô lớn

Các mô hình Gemma đạt được kết quả điểm chuẩn vượt trội ở kích thước 2B, 7B, 9B và 27B, thậm chí còn vượt trội hơn một số mô hình mở lớn hơn.

Khung linh hoạt

Khung linh hoạt

Với Keras 3.0, bạn có thể tận hưởng khả năng tương thích liền mạch với JAX, TensorFlow và PyTorch, giúp bạn dễ dàng chọn và chuyển đổi khung tùy theo nhiệm vụ của mình.

Giới thiệu
Gemma 2

Được thiết kế lại để mang lại hiệu suất vượt trội và hiệu quả chưa từng có, Gemma 2 tối ưu hoá cho khả năng suy luận cực nhanh trên phần cứng đa dạng.

5 lần chụp

MMLU

Điểm chuẩn MMLU là một bài kiểm tra đánh giá phạm vi kiến thức và khả năng giải quyết vấn đề mà các mô hình ngôn ngữ lớn có được trong quá trình huấn luyện trước.

25 bức ảnh

ARC-C

Điểm chuẩn ARC-c là một tập dữ liệu ARC-e tập trung nhiều hơn, trong đó chỉ bao gồm những câu hỏi có câu trả lời sai bằng các thuật toán phổ biến (cơ sở truy xuất và từ cùng xuất hiện).

5 lần chụp

GSM8K

Điểm chuẩn GSM8K kiểm tra khả năng giải các bài toán toán học ở cấp trường của một mô hình ngôn ngữ thường yêu cầu nhiều bước lập luận.

3-5 ảnh

AGIEval

Điểm chuẩn AGIEval kiểm tra trí thông minh chung của một mô hình ngôn ngữ bằng cách sử dụng các câu hỏi bắt nguồn từ các bài kiểm tra thực tế được thiết kế để đánh giá khả năng trí tuệ của con người.

Ảnh 3 điểm, CoT

BBH

Điểm chuẩn BBH (BIG-Bench Hard) tập trung vào các nhiệm vụ được coi là vượt quá khả năng của các mô hình ngôn ngữ hiện tại, kiểm tra giới hạn của các mô hình này trên nhiều lĩnh vực suy luận và hiểu biết.

3 ảnh, F1

CÚI THẤP

DROP là điểm chuẩn về khả năng đọc hiểu, đòi hỏi phải có khả năng suy luận riêng biệt về các đoạn văn.

5 bức ảnh

Winogrande

Điểm chuẩn Winogrande kiểm tra khả năng giải quyết các công việc điền vào chỗ trống không rõ ràng của mô hình ngôn ngữ bằng quyền chọn nhị phân, đòi hỏi khả năng lập luận chung tổng quát.

10 cảnh

HellaSwag

Điểm chuẩn HellaSwag thử thách khả năng hiểu và áp dụng lập luận theo lý luận thông thường của một mô hình ngôn ngữ bằng cách chọn phần kết hợp lý nhất cho câu chuyện.

4 tấm

TOÁN

MATH đánh giá khả năng của một mô hình ngôn ngữ trong việc giải các bài toán đố toán học phức tạp, đòi hỏi phải suy luận, giải quyết vấn đề theo nhiều bước và hiểu các khái niệm toán học.

ảnh 0

ARC-e

Điểm chuẩn ARC-e sẽ kiểm tra kỹ năng trả lời câu hỏi nâng cao của một mô hình ngôn ngữ thông qua các câu hỏi khoa học trắc nghiệm, cấp trường học thực sự.

0-shot

PIQA

Điểm chuẩn PIQA kiểm tra khả năng hiểu và áp dụng kiến thức vật lý thông thường của một mô hình ngôn ngữ bằng cách trả lời các câu hỏi về các tương tác vật lý thường ngày.

0-shot

SIQA

Điểm chuẩn SIQA đánh giá mức độ hiểu biết của một mô hình ngôn ngữ về tương tác xã hội và ý thức xã hội thông thường bằng cách đặt câu hỏi về hành động của người dùng và ý nghĩa xã hội của họ.

ảnh 0

Tiếng Boolq

Điểm chuẩn BoolQ kiểm tra khả năng của mô hình ngôn ngữ trong việc trả lời các câu hỏi có/không xuất hiện tự nhiên, kiểm tra khả năng của mô hình trong việc thực hiện các nhiệm vụ suy luận bằng ngôn ngữ tự nhiên trong thực tế.

5 bức ảnh

TriviaQA

Điểm chuẩn của TriviaQA kiểm tra kỹ năng đọc hiểu với bộ ba số bằng chứng theo câu hỏi-trả lời.

5 bức ảnh

NQ

Điểm chuẩn NQ (Câu hỏi tự nhiên) kiểm tra khả năng của một mô hình ngôn ngữ trong việc tìm và hiểu câu trả lời trong toàn bộ bài viết trên Wikipedia, mô phỏng các tình huống trả lời câu hỏi trong thực tế.

truyền@1

HumanEval

Điểm chuẩn HumanEval kiểm thử khả năng tạo mã của mô hình ngôn ngữ bằng cách đánh giá xem các giải pháp của mô hình đó có vượt qua các bài kiểm thử đơn vị chức năng cho các vấn đề lập trình hay không.

Chụp 3 tấm

MBPP

Điểm chuẩn MBPP kiểm tra khả năng của một mô hình ngôn ngữ trong việc giải quyết các vấn đề lập trình cơ bản bằng Python, tập trung vào các khái niệm lập trình cơ bản và cách sử dụng thư viện chuẩn.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 tỷ

42,3

Gemma 2

2,6 tỷ

51,3

Mistral

7 tỷ

62,5

LLAMA 3

8 TỶ

66,6

Gemma 1

7 TỶ

64,4

Gemma 2

9 TỶ

71,3

Gemma 2

27 TỶ

75,2

Gemma 1

2,5 tỷ

48,5

Gemma 2

2,6 tỷ

55,4

Mistral

7 tỷ

60,5

LLAMA 3

8 TỶ

59,2

Gemma 1

7 TỶ

61,1

Gemma 2

9B

68,4

Gemma 2

27 TỶ

71,4

Gemma 1

2,5 tỷ

15.1

Gemma 2

2,6 TỶ

23,9

Mistral

7 TỶ

39,6

LLAMA 3

8 TỶ

45,7

Gemma 1

7 tỷ

51,8

Gemma 2

9B

68,6

Gemma 2

27 tỷ

74,0

Gemma 1

2,5 tỷ

24,2

Gemma 2

2,6 tỷ

30,6

Mistral

7 TỶ

44,0

LLAMA 3

8B

45,9

Gemma 1

7 TỶ

44,9

Gemma 2

9 TỶ

52,8

Gemma 2

27 tỷ

55.1

Gemma 1

2,5 tỷ

35,2

Gemma 2

2,6 tỷ

41,9

Mistral

7 TỶ

56.0

LLAMA 3

8 TỶ

61,1

Gemma 1

7 tỷ

59,0

Gemma 2

9B

68.2

Gemma 2

27 tỷ

74,9

Gemma 1

2,5 tỷ

48,5

Gemma 2

2,6 tỷ

52.0

Mistral

7 tỷ

63,8

LLAMA 3

8B

58,4

Gemma 1

7 TỶ

56,3

Gemma 2

9B

69,4

Gemma 2

27 TỶ

74,2

Gemma 1

2,5 tỷ

66,8

Gemma 2

2,6 tỷ

70,9

Mistral

7 TỶ

78,5

LLAMA 3

8B

76,1

Gemma 1

7 TỶ

79,0

Gemma 2

9B

80,6

Gemma 2

27 TỶ

83,7

Gemma 1

2,5 tỷ

71,7

Gemma 2

2,6 tỷ

73,0

Mistral

7 tỷ

83

LLAMA 3

8B

82

Gemma 1

7 TỶ

82,3

Gemma 2

9B

81,9

Gemma 2

27 tỷ

86,4

Gemma 1

2,5 tỷ

11.8

Gemma 2

2,6 tỷ

15

Mistral

7 tỷ

12,7

Gemma 1

7 TỶ

24,3

Gemma 2

9 TỶ

36,6

Gemma 2

27 TỶ

42.3

Gemma 1

2,5 tỷ

73,2

Gemma 2

2,6 tỷ

80,1

Mistral

7 TỶ

80,5

Gemma 1

7 TỶ

81,5

Gemma 2

9 TỶ

88,0

Gemma 2

27 TỶ

88,6

Gemma 1

2,5 tỷ

77,3

Gemma 2

2,6 tỷ

77,8

Mistral

7 TỶ

82,2

Gemma 1

7 TỶ

81,2

Gemma 2

9 TỶ

81,7

Gemma 2

27 TỶ

83,2

Gemma 1

2,5 tỷ

49,7

Gemma 2

2,6 TỶ

51,9

Mistral

7 TỶ

47,0

Gemma 1

7 tỷ

51,8

Gemma 2

9 TỶ

53,4

Gemma 2

27 tỷ

53,7

Gemma 1

2,5 tỷ

69,4

Gemma 2

2,6 TỶ

72,5

Mistral

7 TỶ

83,2

Gemma 1

7 TỶ

83,2

Gemma 2

9 TỶ

84,2

Gemma 2

27 TỶ

84,8

Gemma 1

2,5 tỷ

53,2

Gemma 2

2,6 tỷ

59,4

Mistral

7 tỷ

62,5

Gemma 1

7 tỷ

63,4

Gemma 2

9 TỶ

76,6

Gemma 2

27 TỶ

83,7

Gemma 1

2,5 tỷ

12,5

Gemma 2

2,6 tỷ

16,7

Mistral

7 tỷ

23,2

Gemma 1

7 TỶ

23.0

Gemma 2

9 TỶ

29,2

Gemma 2

27 tỷ

34,5

Gemma 1

2,5 tỷ

22.0

Gemma 2

2,6 TỶ

17,7

Mistral

7 tỷ

26,2

Gemma 1

7 TỶ

32.3

Gemma 2

9B

40,2

Gemma 2

27 TỶ

51,8

Gemma 1

2,5 tỷ

29,2

Gemma 2

2,6 tỷ

29,6

Mistral

7 tỷ

40,2

Gemma 1

7 tỷ

44,4

Gemma 2

9B

52,4

Gemma 2

27 tỷ

62,6

*Đây là điểm chuẩn cho các mô hình được huấn luyện trước, hãy xem báo cáo kỹ thuật để biết thông tin chi tiết về hiệu suất với các phương pháp khác.

Nhóm mô hình Gemma

Bản phát hành mới

Gemma 2

Gemma 2 cung cấp 3 mô hình mới, mạnh mẽ và hiệu quả có kích thước tham số là 2, 9 và 27 tỷ, tất cả đều tích hợp các tính năng an toàn nâng cao.

Bản phát hành mới

DataGemma

DataGemma là mô hình mở đầu tiên được thiết kế để kết nối các mô hình ngôn ngữ lớn (LLM) với dữ liệu thực tế phong phú được rút ra từ Data Commons của Google.

Gemma 1

Mô hình Gemma là các mô hình ngôn ngữ lớn gọn nhẹ, chuyển văn bản thành văn bản, chỉ có bộ giải mã, được huấn luyện trên một tập dữ liệu khổng lồ gồm văn bản, mã và nội dung toán học cho nhiều nhiệm vụ xử lý ngôn ngữ tự nhiên.

RecurrentGemma

RecurrentGemma là một mô hình khác biệt về mặt kỹ thuật, tận dụng mạng nơron tái sinh và sự chú ý cục bộ để cải thiện hiệu quả bộ nhớ.

PaliGemma

PaliGemma là một mô hình ngôn ngữ thị giác mở lấy cảm hứng từ PaLI-3, tận dụng SigLIP và Gemma, được thiết kế như một mô hình linh hoạt để chuyển sang nhiều nhiệm vụ ngôn ngữ thị giác.

CodeGemma

Khai thác nền tảng của các mô hình Gemma được huấn luyện trước ban đầu, CodeGemma mang đến các tính năng tạo và hoàn thành mã mạnh mẽ ở kích thước phù hợp với máy tính cục bộ của bạn.

Hướng dẫn bắt đầu nhanh dành cho nhà phát triển

Sổ tay nấu ăn của Gemma

Khám phá bộ sưu tập các công thức và ví dụ thực tế thể hiện sức mạnh và tính linh hoạt của Gemma cho các tác vụ như chú thích hình ảnh bằng PaliGemma, tạo mã bằng CodeGemma và xây dựng chatbot bằng các mô hình Gemma được tinh chỉnh.

Phát triển AI có trách nhiệm

Trách nhiệm từ trong thiết kế

Được đào tạo trước dựa trên dữ liệu được tuyển chọn kỹ lưỡng và điều chỉnh để đảm bảo an toàn, qua đó hỗ trợ phát triển AI một cách an toàn và có trách nhiệm thông qua các mô hình của Gemma.

Quy trình đánh giá mạnh mẽ và minh bạch

Các hoạt động đánh giá toàn diện và báo cáo minh bạch cho thấy những hạn chế của mô hình để áp dụng phương pháp có trách nhiệm cho từng trường hợp sử dụng.

Hỗ trợ phát triển có trách nhiệm

Bộ công cụ AI tạo sinh có trách nhiệm hỗ trợ nhà phát triển thiết kế và triển khai các phương pháp hay nhất về AI có trách nhiệm.

Biểu tượng Google Cloud

Được tối ưu hoá cho Google Cloud

Với các mô hình Gemma trên Google Cloud, bạn có thể tuỳ chỉnh sâu mô hình theo nhu cầu cụ thể của mình bằng các công cụ được quản lý toàn bộ của Vertex AI hoặc tuỳ chọn tự quản lý của GKE, đồng thời triển khai mô hình đó cho cơ sở hạ tầng được tối ưu hoá cho AI linh hoạt và tiết kiệm chi phí.

Thúc đẩy hoạt động nghiên cứu học thuật bằng khoản tín dụng Google Cloud

Chương trình Nghiên cứu học thuật gần đây đã kết thúc thời gian đăng ký, trao khoản tín dụng Google Cloud để hỗ trợ các nhà nghiên cứu đẩy ranh giới của khám phá khoa học bằng cách sử dụng các mô hình Gemma. Chúng tôi rất mong chờ những nghiên cứu đột phá xuất phát từ sáng kiến này.

Hãy chú ý theo dõi các cơ hội trong tương lai để thúc đẩy hoạt động nghiên cứu của bạn với Google Cloud.

Tham gia cộng đồng

Kết nối, khám phá và chia sẻ kiến thức của bạn với những người khác trong cộng đồng mô hình học máy.