Model Terbuka Gemma

Serangkaian model open source yang ringan dan canggih, yang dibuat dari riset dan teknologi yang sama dengan yang digunakan untuk membuat model Gemini

Ikon {i>Responsible by design<i}

Bertanggung jawab dari desain

Dengan menerapkan langkah-langkah keamanan yang komprehensif, model ini membantu memastikan solusi AI yang bertanggung jawab dan tepercaya melalui set data yang diseleksi dan penyesuaian yang ketat.

Ikon performa yang tidak cocok

Performa yang tidak tertandingi dalam ukuran

Model Gemma mencapai hasil tolok ukur yang luar biasa pada ukuran 2B, 7B, 9B, dan 27B, bahkan mengungguli beberapa model terbuka yang lebih besar.

Framework fleksibel

Framework fleksibel

Dengan Keras 3.0, nikmati kompatibilitas yang lancar dengan JAX, TensorFlow, dan PyTorch, yang memungkinkan Anda memilih dan beralih framework dengan mudah, bergantung pada tugas Anda.

Memperkenalkan
Gemma 2

Didesain ulang untuk performa luar biasa dan efisiensi yang tak tertandingi, Gemma 2 mengoptimalkan inferensi super cepat pada beragam hardware.

5 tembakan

MMLU

Tolok ukur MMLU adalah pengujian yang mengukur luasnya pengetahuan dan kemampuan memecahkan masalah yang diperoleh oleh model bahasa besar selama prapelatihan.

25 kali

ARC-C

Benchmark ARC-c adalah subset yang lebih terfokus dari set data ARC-e, yang hanya berisi pertanyaan yang salah dijawab oleh algoritma umum (ko-kejadian kata dan berbasis pengambilan).

5-shot

GSM8K

Tolok ukur GSM8K menguji kemampuan model bahasa untuk memecahkan soal matematika tingkat sekolah dasar yang sering kali memerlukan beberapa langkah penalaran.

3-5 tembakan

AGIEval

Benchmark AGIEval menguji kecerdasan umum model bahasa dengan menggunakan pertanyaan yang berasal dari ujian dunia nyata yang dirancang untuk menilai kemampuan intelektual manusia.

3 kali tembakan, Karet

BBH

Tolok ukur BBH (BIG-Bench Hard) berfokus pada tugas-tugas yang dianggap di luar kemampuan model bahasa saat ini, dengan menguji batas kemampuan di berbagai bidang penalaran dan pemahaman.

3-shot, F1

LEPASKAN

DROP adalah benchmark pemahaman membaca yang memerlukan penalaran terpisah atas paragraf.

5-shot

Winogrande

Tolok ukur Winogrande menguji kemampuan model bahasa untuk menyelesaikan tugas yang ambigu dengan opsi biner, yang membutuhkan penalaran umum umum.

10 kali

HellaSwag

Benchmark HellaSwag menantang kemampuan model bahasa untuk memahami dan menerapkan penalaran akal sehat dengan memilih akhir cerita yang paling logis.

4 tembakan

MATH

MATH mengevaluasi kemampuan model bahasa untuk memecahkan soal cerita matematika yang kompleks, membutuhkan penalaran, pemecahan masalah multilangkah, dan pemahaman konsep matematika.

0-shot

ARC-e

Tolok ukur ARC-e menguji keterampilan menjawab pertanyaan tingkat lanjut model bahasa dengan pertanyaan sains pilihan ganda tingkat sekolah dasar yang sesungguhnya.

0 kali

PIQA

Tolok ukur PIQA menguji kemampuan model bahasa untuk memahami dan menerapkan pengetahuan umum fisik dengan menjawab pertanyaan tentang interaksi fisik sehari-hari.

0-shot

SIQA

Tolok ukur SIQA mengevaluasi pemahaman model bahasa tentang interaksi sosial dan akal sehat sosial dengan mengajukan pertanyaan tentang tindakan orang dan implikasi sosialnya.

0 kali

Boolq

Benchmark BoolQ menguji kemampuan model bahasa untuk menjawab pertanyaan ya/tidak yang muncul secara alami, menguji kemampuan model untuk melakukan tugas inferensi bahasa alami di dunia nyata.

5 tembakan

TriviaQA

Tolok ukur TriviaQA menguji kemampuan pemahaman membaca dengan tiga kali lipat bukti tanya jawab.

5 tembakan

NQ

Benchmark NQ (Natural Questions) menguji kemampuan model bahasa untuk menemukan dan memahami jawaban dalam seluruh artikel Wikipedia, yang menyimulasikan skenario menjawab pertanyaan di dunia nyata.

lulus@1

HumanEval

Benchmark HumanEval menguji kemampuan pembuatan kode model bahasa dengan mengevaluasi apakah solusinya lulus pengujian unit fungsional untuk masalah pemrograman.

3-shot

MBPP

Tolok ukur MBPP menguji kemampuan model bahasa untuk memecahkan masalah pemrograman Python dasar, dengan berfokus pada konsep pemrograman dasar dan penggunaan library standar.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 M

42,3

Gemma 2

2,6 M

51,3

Mistral

7 M

62,5

LLAMA 3

8B

66,6

Gemma 1

7 M

64,4

Gemma 2

9 miliar

71,3

Gemma 2

27 M

75,2

Gemma 1

2,5 M

48,5

Gemma 2

2,6 miliar

55,4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7 M

61,1

Gemma 2

9 miliar

68,4

Gemma 2

27 M

71,4

Gemma 1

2,5 M

15.1

Gemma 2

2,6 M

23,9

Mistral

7B

39,6

LLAMA 3

8B

45,7

Gemma 1

7B

51,8

Gemma 2

9 miliar

68,6

Gemma 2

27 M

74,0

Gemma 1

2,5 M

24,2

Gemma 2

2,6 miliar

30.6

Mistral

7 M

44,0

LLAMA 3

8B

45,9

Gemma 1

7 M

44,9

Gemma 2

9 miliar

52,8

Gemma 2

27 M

55.1

Gemma 1

2,5 M

35,2

Gemma 2

2,6 M

41,9

Mistral

7B

56,0

LLAMA 3

8B

61,1

Gemma 1

7 M

59,0

Gemma 2

9 miliar

68.2

Gemma 2

27B

74,9

Gemma 1

2,5 M

48,5

Gemma 2

2,6 M

52,0

Mistral

7 M

63,8

LLAMA 3

8B

58,4

Gemma 1

7 M

56,3

Gemma 2

9 miliar

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 M

66,8

Gemma 2

2,6 miliar

70,9

Mistral

7 M

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 miliar

80,6

Gemma 2

27 M

83,7

Gemma 1

2,5 M

71,7

Gemma 2

2,6 M

73,0

Mistral

7B

83,0

LLAMA 3

8B

82,0

Gemma 1

7 M

82,3

Gemma 2

9 miliar

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 M

11.8

Gemma 2

2,6 miliar

15,0

Mistral

7 M

12,7

Gemma 1

7B

24,3

Gemma 2

9 miliar

36,6

Gemma 2

27 M

42,3

Gemma 1

2,5 M

73,2

Gemma 2

2,6 miliar

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 miliar

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 M

77,3

Gemma 2

2,6 M

77,8

Mistral

7B

82,2

Gemma 1

7 M

81,2

Gemma 2

9 miliar

81,7

Gemma 2

27 M

83,2

Gemma 1

2,5 M

49,7

Gemma 2

2,6 miliar

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 miliar

53,4

Gemma 2

27 M

53,7

Gemma 1

2,5 M

69,4

Gemma 2

2,6 M

72,5

Mistral

7 M

83,2

Gemma 1

7 M

83,2

Gemma 2

9 miliar

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 M

53,2

Gemma 2

2,6 M

59,4

Mistral

7 M

62,5

Gemma 1

7 M

63,4

Gemma 2

9 miliar

76,6

Gemma 2

27 M

83,7

Gemma 1

2,5 M

12,5

Gemma 2

2,6 miliar

16,7

Mistral

7B

23,2

Gemma 1

7B

23,0

Gemma 2

9 miliar

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 M

22,0

Gemma 2

2,6 miliar

17,7

Mistral

7 M

26,2

Gemma 1

7B

32.3

Gemma 2

9 miliar

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 M

29,2

Gemma 2

2,6 miliar

29,6

Mistral

7B

40,2

Gemma 1

7 M

44,4

Gemma 2

9 miliar

52,4

Gemma 2

27 M

62,6

*Ini adalah tolok ukur untuk model terlatih. Lihat laporan teknis untuk mengetahui detail performa dengan metodologi lain.

Rangkaian model Gemma

Rilis baru

Gemma 2

Gemma 2 menawarkan tiga model baru yang canggih dan efisien yang tersedia dalam ukuran parameter 2, 9, dan 27 miliar, semuanya dengan peningkatan keamanan bawaan.

Rilis baru

DataGemma

DataGemma adalah model terbuka pertama yang dirancang untuk menghubungkan LLM dengan data dunia nyata ekstensif yang diambil dari Data Commons Google.

Gemma 1

Model Gemma adalah model bahasa besar yang ringan, teks ke teks, khusus decoder, yang dilatih dengan set data teks, kode, dan konten matematis yang sangat besar untuk berbagai tugas natural language processing.

RecurrentGemma

RecurrentGemma adalah model yang secara teknis berbeda yang memanfaatkan jaringan saraf berulang dan perhatian lokal untuk meningkatkan efisiensi memori.

PaliGemma

PaliGemma adalah model bahasa visi terbuka yang terinspirasi oleh PaLI-3, yang memanfaatkan SigLIP dan Gemma, yang dirancang sebagai model serbaguna untuk ditransfer ke berbagai tugas visi-bahasa.

CodeGemma

Dengan memanfaatkan fondasi model Gemma asli yang telah dilatih sebelumnya, CodeGemma menghadirkan kemampuan penyelesaian dan pembuatan kode yang canggih dalam ukuran yang sesuai untuk komputer lokal Anda.

Panduan memulai cepat untuk developer

Buku Resep Gemma

Jelajahi koleksi resep dan contoh praktis yang menunjukkan kecanggihan dan fleksibilitas Gemma untuk tugas-tugas seperti pemberian teks pada gambar dengan PaliGemma, pembuatan kode dengan CodeGemma, dan membangun chatbot dengan model Gemma yang telah disesuaikan.

Pengembangan Responsible AI

Tanggung Jawab dari Desain

Berlatih dengan data yang diseleksi dengan cermat dan mengutamakan keamanan, membantu mendukung pengembangan AI yang aman dan bertanggung jawab berdasarkan model Gemma.

Evaluasi yang Andal dan Transparan

Evaluasi komprehensif dan pelaporan yang transparan mengungkap batasan model untuk menerapkan pendekatan yang bertanggung jawab untuk setiap kasus penggunaan.

Mendukung Pengembangan yang Bertanggung Jawab

Responsible Generative AI Toolkit mendukung developer untuk mendesain dan menerapkan praktik terbaik Responsible AI.

Ikon Google Cloud

Dioptimalkan untuk Google Cloud

Dengan model Gemma di Google Cloud, Anda dapat menyesuaikan model secara mendalam sesuai kebutuhan spesifik Anda dengan alat yang dikelola sepenuhnya oleh Vertex AI atau opsi pengelolaan mandiri GKE, lalu men-deploynya ke infrastruktur yang dioptimalkan untuk AI yang fleksibel dan hemat biaya.

Mempercepat riset akademik dengan kredit Google Cloud

Program Riset Akademik baru-baru ini mengakhiri periode pengajuan permohonannya, dengan memberikan kredit Google Cloud untuk mendukung peneliti yang mendorong batasan penemuan ilmiah menggunakan model Gemma. Kami tidak sabar untuk melihat penelitian inovatif yang muncul dari inisiatif ini.

Nantikan peluang mendatang untuk memajukan riset Anda dengan Google Cloud.

Gabung dengan komunitas

Terhubung, jelajahi, dan bagikan pengetahuan Anda dengan orang lain dalam komunitas model ML.