Model Terbuka Gemma

Serangkaian model open source yang ringan dan canggih, yang dibuat dari riset dan teknologi yang sama dengan yang digunakan untuk membuat model Gemini

Ikon Responsible by Design

Bertanggung jawab dari desain

Dengan menerapkan langkah-langkah keamanan yang komprehensif, model ini membantu memastikan solusi AI yang bertanggung jawab dan tepercaya melalui set data yang diseleksi dan penyesuaian yang ketat.

Ikon performa yang tidak cocok

Performa yang tidak tertandingi dalam ukuran

Model Gemma mencapai hasil benchmark yang luar biasa pada ukuran 2 M, 7 M, 9 M, dan 27 M, bahkan mengungguli beberapa model terbuka yang lebih besar.

Framework fleksibel

Deployment fleksibel

Men-deploy dengan lancar ke perangkat seluler, web, dan cloud menggunakan Keras, JAX, MediaPipe, PyTorch, Hugging Face, dan lainnya.

Coba Gemma 2

Gemma 2 didesain ulang untuk performa yang luar biasa dan efisiensi yang tak tertandingi, serta mengoptimalkan inferensi yang sangat cepat di berbagai hardware.

5 tembakan

MMLU

Tolok ukur MMLU adalah pengujian yang mengukur cakupan pengetahuan dan kemampuan pemecahan masalah yang diperoleh oleh model bahasa besar selama prapelatihan.

25 shot

ARC-C

Benchmark ARC-c adalah subset yang lebih terfokus dari set data ARC-e, yang hanya berisi pertanyaan yang salah dijawab oleh algoritma umum (ko-kejadian kata dan berbasis pengambilan).

5-shot

GSM8K

Benchmark GSM8K menguji kemampuan model bahasa untuk memecahkan masalah matematika tingkat sekolah dasar yang sering kali memerlukan beberapa langkah penalaran.

3-5-shot

AGIEval

Benchmark AGIEval menguji kecerdasan umum model bahasa menggunakan pertanyaan yang berasal dari ujian dunia nyata yang dirancang untuk menilai kemampuan intelektual manusia.

3-shot, CoT

BBH

Benchmark BBH (BIG-Bench Hard) berfokus pada tugas yang dianggap melampaui kemampuan model bahasa saat ini, yang menguji batasnya di berbagai domain penalaran dan pemahaman.

3-shot, F1

LEPASKAN

DROP adalah benchmark pemahaman membaca yang memerlukan penalaran terpisah atas paragraf.

5 tembakan

Winogrande

Benchmark Winogrande menguji kemampuan model bahasa untuk menyelesaikan tugas mengisi titik-titik yang ambigu dengan opsi biner, yang memerlukan penalaran akal sehat umum.

10-shot

HellaSwag

Benchmark HellaSwag menantang kemampuan model bahasa untuk memahami dan menerapkan penalaran akal sehat dengan memilih akhir cerita yang paling logis.

4-shot

MATH

MATH mengevaluasi kemampuan model bahasa untuk menyelesaikan soal cerita matematika yang kompleks, yang memerlukan penalaran, pemecahan masalah multilangkah, dan pemahaman konsep matematika.

0-shot

ARC-e

Benchmark ARC-e menguji keterampilan menjawab pertanyaan lanjutan model bahasa dengan pertanyaan sains pilihan ganda tingkat sekolah dasar yang asli.

0-shot

PIQA

Benchmark PIQA menguji kemampuan model bahasa untuk memahami dan menerapkan pengetahuan umum fisik dengan menjawab pertanyaan tentang interaksi fisik sehari-hari.

0-shot

SIQA

Tolok ukur SIQA mengevaluasi pemahaman model bahasa tentang interaksi sosial dan akal sehat sosial dengan mengajukan pertanyaan tentang tindakan orang dan implikasi sosialnya.

0-shot

Boolq

Benchmark BoolQ menguji kemampuan model bahasa untuk menjawab pertanyaan ya/tidak yang muncul secara alami, menguji kemampuan model untuk melakukan tugas inferensi bahasa alami di dunia nyata.

5-shot

TriviaQA

Tolok ukur TriviaQA menguji keterampilan pemahaman membaca dengan tiga pertanyaan-jawaban-bukti.

5-shot

NQ

Benchmark NQ (Natural Questions) menguji kemampuan model bahasa untuk menemukan dan memahami jawaban dalam seluruh artikel Wikipedia, yang menyimulasikan skenario menjawab pertanyaan di dunia nyata.

pass@1

HumanEval

Benchmark HumanEval menguji kemampuan pembuatan kode model bahasa dengan mengevaluasi apakah solusinya lulus pengujian unit fungsional untuk masalah pemrograman.

3-shot

MBPP

Benchmark MBPP menguji kemampuan model bahasa untuk menyelesaikan masalah pemrograman Python dasar, dengan berfokus pada konsep pemrograman dasar dan penggunaan library standar.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 M

42,3

Gemma 2

2,6 miliar

51,3

Mistral

7B

62,5

LLAMA 3

8B

66,6

Gemma 1

7B

64,4

Gemma 2

9 miliar

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 M

48,5

Gemma 2

2,6 miliar

55,4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7B

61,1

Gemma 2

9 miliar

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 M

15.1

Gemma 2

2,6 miliar

23,9

Mistral

7B

39,6

LLAMA 3

8B

45,7

Gemma 1

7B

51,8

Gemma 2

9 miliar

68,6

Gemma 2

27B

74,0

Gemma 1

2,5 M

24,2

Gemma 2

2,6 miliar

30.6

Mistral

7B

44,0

LLAMA 3

8B

45,9

Gemma 1

7B

44,9

Gemma 2

9 miliar

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 M

35,2

Gemma 2

2,6 miliar

41,9

Mistral

7B

56,0

LLAMA 3

8B

61,1

Gemma 1

7B

59,0

Gemma 2

9 miliar

68.2

Gemma 2

27B

74,9

Gemma 1

2,5 M

48,5

Gemma 2

2,6 miliar

52,0

Mistral

7B

63,8

LLAMA 3

8B

58,4

Gemma 1

7B

56,3

Gemma 2

9 miliar

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 M

66,8

Gemma 2

2,6 miliar

70,9

Mistral

7B

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 miliar

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 M

71,7

Gemma 2

2,6 miliar

73,0

Mistral

7B

83,0

LLAMA 3

8B

82,0

Gemma 1

7B

82,3

Gemma 2

9 miliar

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 M

11.8

Gemma 2

2,6 miliar

15,0

Mistral

7B

12,7

Gemma 1

7B

24,3

Gemma 2

9 miliar

36,6

Gemma 2

27B

42,3

Gemma 1

2,5 M

73,2

Gemma 2

2,6 miliar

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 miliar

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 M

77,3

Gemma 2

2,6 miliar

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 miliar

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 M

49,7

Gemma 2

2,6 miliar

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 miliar

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 M

69,4

Gemma 2

2,6 miliar

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 miliar

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 M

53,2

Gemma 2

2,6 miliar

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 miliar

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 M

12,5

Gemma 2

2,6 miliar

16,7

Mistral

7B

23,2

Gemma 1

7B

23,0

Gemma 2

9 miliar

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 M

22,0

Gemma 2

2,6 miliar

17,7

Mistral

7B

26,2

Gemma 1

7B

32.3

Gemma 2

9 miliar

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 M

29,2

Gemma 2

2,6 miliar

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 miliar

52,4

Gemma 2

27B

62,6

*Ini adalah tolok ukur untuk model terlatih sebelumnya. Lihat laporan teknis untuk mengetahui detail performa dengan metodologi lainnya.

PaliGemma 2 Baru

PaliGemma 2 menghadirkan kemampuan visual yang mudah disesuaikan ke model bahasa Gemma 2, sehingga memungkinkan berbagai aplikasi yang menggabungkan pemahaman teks dan gambar.

DataGemma

DataGemma adalah model terbuka pertama yang dirancang untuk menghubungkan LLM dengan data dunia nyata yang luas yang diambil dari Data Commons Google.

Cakupan Gemma

Gemma Scope menawarkan transparansi yang belum pernah ada sebelumnya kepada peneliti tentang proses pengambilan keputusan model Gemma 2 kami.

Men-deploy model

Memilih target deployment

Men-deploy ikon selulerPerangkat seluler

Men-deploy di perangkat dengan Google AI Edge

Men-deploy langsung ke perangkat untuk fungsi offline dengan latensi rendah. Ideal untuk aplikasi yang memerlukan responsivitas dan privasi real-time, seperti aplikasi seluler, perangkat IoT, dan sistem tersemat.

Ikon webWeb

Mengintegrasikan dengan lancar ke dalam aplikasi web

Perkuat situs dan layanan web Anda dengan kemampuan AI tingkat lanjut, yang memungkinkan fitur interaktif, konten yang dipersonalisasi, dan otomatisasi cerdas.

Ikon awanCloud

Menskalakan dengan mudah menggunakan infrastruktur cloud

Manfaatkan skalabilitas dan fleksibilitas cloud untuk menangani deployment berskala besar, workload yang menuntut, dan aplikasi AI yang kompleks.

Membuka komunikasi global

Ikuti kompetisi Kaggle global kami. Membuat varian model Gemma untuk bahasa tertentu atau aspek budaya yang unik