Model Terbuka Gemma

Rangkaian model terbuka yang ringan dan canggih, dibuat dari riset dan teknologi yang sama dengan yang digunakan untuk membuat model Gemini

Logo Gemma models

Bertanggung jawab dari desain

Dengan mengintegrasikan langkah-langkah keamanan yang komprehensif, model ini membantu memastikan solusi AI yang bertanggung jawab dan tepercaya melalui set data pilihan dan penyesuaian yang ketat.

Logo Gemma models

Performa yang tidak tertandingi dalam ukuran

Model Gemma mencapai hasil benchmark yang luar biasa pada ukuran 2B dan 7B, bahkan mengungguli beberapa model terbuka yang lebih besar.

Logo Gemma models

Framework fleksibel

Dengan Keras 3.0, nikmati kompatibilitas tanpa batas dengan JAX, TensorFlow, dan PyTorch, sehingga Anda dapat dengan mudah memilih dan mengganti framework bergantung pada tugas Anda.

Tolok ukur

Gemma menetapkan standar baru untuk performa canggih dalam hal ukuran dibandingkan dengan model populer seperti Llama 2 dan Mistral 7B.

5-tembakan, top-1

MMLU

Tolok ukur MMLU adalah pengujian yang mengukur luasnya pengetahuan dan kemampuan pemecahan masalah yang diperoleh oleh model bahasa besar selama prapelatihan.

Pukulan0

HellaSwag

Tolok ukur HellaSwag menantang kemampuan model bahasa untuk memahami dan menerapkan penalaran akal sehat dengan memilih akhir yang paling logis dari sebuah cerita.

Pukulan0

{i>PIQA<i}

Tolok ukur PIQA menguji kemampuan model bahasa dalam memahami dan menerapkan pengetahuan umum fisik dengan menjawab pertanyaan tentang interaksi fisik sehari-hari.

Pukulan0

SIQA

Tolok ukur SIQA mengevaluasi pemahaman model bahasa tentang interaksi sosial dan akal sehat sosial dengan mengajukan pertanyaan tentang tindakan orang dan implikasi sosial mereka.

Pukulan0

Bool

Tolok ukur BoolQ menguji kemampuan model bahasa untuk menjawab pertanyaan ya/tidak yang terjadi secara alami (yang dihasilkan secara spontan dan tidak terbatas) dan menguji kemampuan model untuk melakukan tugas inferensi natural language di dunia nyata.

skor parsial

Winogrande

Benchmark Winogrande menguji kemampuan model bahasa untuk menyelesaikan tugas pengisian yang ambigu dengan opsi biner, yang memerlukan penalaran umum yang umum.

7 tembakan

CQA

Tolok ukur CQA menilai performa model bahasa pada jawaban pertanyaan pilihan ganda, yang memerlukan jenis pengetahuan umum yang berbeda.

OBQA

Tolok ukur OBQA mengevaluasi kemampuan model bahasa untuk melakukan tanya jawab lanjutan dengan penalaran multi-langkah, pengetahuan umum, dan pemahaman rich text, yang dimodelkan setelah ujian buku terbuka.

ARC-e

Tolok ukur ARC-e menguji kemampuan menjawab pertanyaan tingkat lanjut model bahasa dengan pertanyaan sains pilihan ganda tingkat sekolah dasar.

ARC-c

Tolok ukur ARC-c adalah subset yang lebih terfokus dari set data ARC-e, yang hanya berisi pertanyaan yang tidak dijawab dengan benar oleh algoritma umum (dasar pengambilan dan kemunculan bersama).

5 tembakan

TriviaQA

Tolok ukur TriviaQA menguji keterampilan pemahaman bacaan dengan tiga kali lipat bukti tanya jawab.

sandi@1

HumanEval

Benchmark HumanEval menguji kemampuan pembuatan kode model bahasa dengan mengevaluasi apakah solusinya lulus pengujian unit fungsional untuk masalah pemrograman.

3 tembakan

MBPP

Benchmark MBPP menguji kemampuan model bahasa untuk memecahkan masalah dasar pemrograman Python, yang berfokus pada konsep pemrograman dasar dan penggunaan library standar.

maj@1

GSM8K

Tolok ukur GSM8K menguji kemampuan model bahasa untuk menyelesaikan soal matematika di tingkat sekolah dasar yang sering kali memerlukan beberapa langkah penalaran.

4 tembakan

MATH

Tolok ukur MATH mengevaluasi kemampuan model bahasa untuk memecahkan soal cerita matematika yang kompleks, yang membutuhkan penalaran, pemecahan masalah multi-langkah, dan pemahaman konsep matematika.

AGIEval

Tolok ukur AGIEval menguji kecerdasan umum model bahasa dengan menggunakan pertanyaan yang berasal dari ujian dunia nyata yang dirancang untuk menilai kemampuan intelektual manusia (ujian masuk perguruan tinggi, ujian hukum, dll.).

BBH

Tolok ukur BBH (Big-Bench Hard) berfokus pada tugas-tugas yang dianggap di luar kemampuan model bahasa saat ini, yang menguji batasan mereka di berbagai bidang pemikiran dan pemahaman.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma

7 m

64,3

Gemma

2 m

42,3

Mistral

7 m

62,5

LLAMA-2

13 m

54,8

LLAMA-2

7 m

45,3

Gemma

7 m

81,2

Gemma

2 m

71,4

Mistral

7 m

81,0

LLAMA-2

13 m

80,7

LLAMA-2

7 m

77,2

Gemma

7 m

81,2

Gemma

2 m

77,3

Mistral

7 m

82,2

LLAMA-2

13 m

80,5

LLAMA-2

7 m

78,8

Gemma

7 m

51,8

Gemma

2 m

49,7

Mistral

7 m

47,0*

LLAMA-2

13 m

50,3

LLAMA-2

7 m

48,3

Gemma

7 m

83,2

Gemma

2 m

69,42

Mistral

7 m

83,2*

LLAMA-2

13 m

81,7

LLAMA-2

7 m

77,4

Gemma

7 m

72,3

Gemma

2 m

65,4

Mistral

7 m

74,2

LLAMA-2

13 m

72,8

LLAMA-2

7 m

69,2

Gemma

7 m

71,3

Gemma

2 m

65,3

Mistral

7 m

66,3*

LLAMA-2

13 m

67,3

LLAMA-2

7 m

57,8

Gemma

7 m

52,8

Gemma

2 m

47,8

Mistral

7 m

52,2

LLAMA-2

13 m

57,0

LLAMA-2

7 m

58,6

Gemma

7 m

81,5

Gemma

2 m

73,2

Mistral

7 m

80,5

LLAMA-2

13 m

77,3

LLAMA-2

7 m

75,2

Gemma

7 m

53,2

Gemma

2 m

42,06

Mistral

7 m

54,9

LLAMA-2

13 m

49,4

LLAMA-2

7 m

45,9

Gemma

7 m

63,4

Gemma

2 m

53,2

Mistral

7 m

62,5

LLAMA-2

13 m

79,6

LLAMA-2

7 m

72,1

Gemma

7 m

32,3

Gemma

2 m

22,0

Mistral

7 m

26,2

LLAMA-2

13 m

18,3

LLAMA-2

7 m

12,8

Gemma

7 m

44,4

Gemma

2 m

29,2

Mistral

7 m

40,2*

LLAMA-2

13 m

30.6

LLAMA-2

7 m

20,8

Gemma

7 m

46,4

Gemma

2 m

17,7

Mistral

7 m

35,4*

LLAMA-2

13 m

28,7

LLAMA-2

7 m

14,6

Gemma

7 m

24,3

Gemma

2 m

11.8

Mistral

7 m

12,7

LLAMA-2

13 m

3.9

LLAMA-2

7 m

2.5

Gemma

7 m

41,7

Gemma

2 m

24,2

Mistral

7 m

41,2*

LLAMA-2

13 m

39,1

LLAMA-2

7 m

29,3

Gemma

7 m

55.1

Gemma

2 m

35,2

Mistral

7 m

56,1*

LLAMA-2

13 m

39,4

LLAMA-2

7 m

32,6

*Lihat laporan teknis untuk detail tentang performa dengan metodologi lainnya

Pengembangan responsible AI

Tanggung Jawab berdasarkan Desain

dilatih sebelumnya dengan data yang diseleksi dengan cermat dan disesuaikan dengan keamanan terbaik, membantu memberdayakan pengembangan AI yang aman dan bertanggung jawab berdasarkan model Gemma.

Evaluasi yang Kuat dan Transparan

Evaluasi komprehensif dan pelaporan yang transparan mengungkap batasan model untuk menerapkan pendekatan yang bertanggung jawab bagi setiap kasus penggunaan.

Mendukung Pengembangan yang Bertanggung Jawab

Toolkit AI Generatif yang Responsible mendukung developer untuk merancang dan menerapkan praktik terbaik Responsible AI.

Ikon Google Cloud

Dioptimalkan untuk Google Cloud

Dengan model Gemma di Google Cloud, Anda dapat menyesuaikan model secara mendalam dengan kebutuhan spesifik Anda menggunakan alat Vertex AI yang terkelola sepenuhnya atau opsi GKE yang dikelola sendiri dan men-deploy-nya ke infrastruktur yang fleksibel dan hemat biaya dengan AI.

Mempercepat riset akademik dengan kredit Google Cloud

Program Riset Akademik baru-baru ini telah menyelesaikan periode pendaftarannya, memberikan kredit Google Cloud untuk mendukung peneliti yang mendobrak batas penemuan ilmiah menggunakan model Gemma. Kami tidak sabar untuk melihat penelitian inovatif yang muncul dari inisiatif ini.

Nantikan peluang masa mendatang untuk memajukan riset Anda dengan Google Cloud.

Bergabunglah dengan komunitas

Terhubung, jelajahi, dan bagikan pengetahuan Anda dengan orang lain di komunitas model ML.

Bersainglah membangun asisten AI terbaik bagi engineer ML

Kaggle menyelenggarakan kompetisi yang menantang peserta untuk menggunakan model Gemma guna membangun asisten AI terbaik untuk tugas-tugas engineering ML. Para pemenang akan diumumkan di Google I/O.

Ikuti kompetisi
Piala kompetisi Kaggle