Ringkasan model Gemma 3

Gemma adalah serangkaian model kecerdasan buatan (AI) generatif dan Anda dapat menggunakannya dalam berbagai tugas pembuatan, termasuk menjawab pertanyaan, perangkuman, dan penalaran. Model Gemma dilengkapi dengan bobot terbuka dan mengizinkan penggunaan komersial yang bertanggung jawab, sehingga Anda dapat menyesuaikan dan men-deploynya di project dan aplikasi Anda sendiri.

Rilis Gemma 3 mencakup fitur utama berikut. Coba di AI Studio:

Anda dapat mendownload model Gemma 3 dari Kaggle dan Hugging Face. Untuk detail teknis selengkapnya tentang Gemma 3, lihat Kartu Model dan Laporan Teknis. Model inti Gemma versi sebelumnya juga tersedia untuk didownload. Untuk mengetahui informasi selengkapnya, lihat Model Gemma sebelumnya.

Coba Gemma 3 Dapatkan di Kaggle Dapatkan di Hugging Face

Input gambar dan teks multimodal

Anda dapat menangani tugas analisis dan pembuatan yang lebih kompleks dengan Gemma 3 dengan kemampuannya untuk menangani data gambar dan teks. Anda dapat menggunakan model ini untuk menafsirkan data gambar, mengidentifikasi objek, mengekstrak data teks, dan menyelesaikan banyak tugas input visual lainnya ke output teks. Mulai membangun

Jendela konteks 128 ribu token

Model Gemma 3 dapat menangani input perintah hingga 128 ribu token, jendela konteks 16x lebih besar daripada model Gemma sebelumnya. Jumlah token yang besar berarti Anda dapat memproses beberapa artikel multi halaman, satu artikel yang lebih besar, atau ratusan gambar dalam satu perintah.

Dukungan berbagai bahasa

Bekerja dalam bahasa Anda sendiri dengan dukungan bawaan untuk lebih dari 140 bahasa. Gemma 3 dilatih untuk mendukung sejumlah besar bahasa dibandingkan dengan versi Gemma sebelumnya, sehingga Anda dapat melakukan lebih banyak tugas visual dan teks dalam bahasa yang digunakan pelanggan. Mulai membangun

Ukuran parameter dan kuantisasi

Model Gemma 3 tersedia dalam 4 ukuran parameter pada 5 tingkat presisi, mulai dari presisi penuh pada 32-bit hingga presisi terendah pada 4-bit. Ukuran dan presisi yang berbeda mewakili serangkaian kompromi untuk aplikasi AI Anda. Model dengan parameter dan jumlah bit yang lebih tinggi (presisi lebih tinggi) umumnya lebih mampu, tetapi lebih mahal untuk dijalankan dalam hal siklus pemrosesan, biaya memori, dan konsumsi daya. Model dengan parameter dan jumlah bit yang lebih rendah (presisi yang lebih rendah) memiliki lebih sedikit kemampuan, tetapi mungkin cukup untuk tugas AI Anda. Tabel berikut menjelaskan perkiraan persyaratan memori GPU atau TPU untuk menjalankan inferensi dengan setiap ukuran versi model Gemma 3.

Parameter 32-bit penuh BF16 (16-bit) SFP8
(8-bit)
Q4_0
(4-bit)
INT4
(4-bit)
Gemma 3 1B (hanya teks) 4 GB 1,5 GB 1,1 GB 892 MB 861 MB
Gemma 3 4B 16 GB 6,4 GB 4,4 GB 3,4 GB 3,2 GB
Gemma 3 12B 48 GB 20 GB 12,2 GB 8,7 GB 8,2 GB
Gemma 3 27B 108 GB 46,4 GB 29,1 GB 21 GB 19,9 GB

Tabel 1. Perkiraan memori GPU atau TPU yang diperlukan untuk memuat model Gemma 3 berdasarkan jumlah parameter dan tingkat kuantisasi (kedalaman bit).

Penggunaan memori meningkat berdasarkan jumlah total token yang diperlukan untuk perintah yang Anda jalankan. Makin besar jumlah token yang diperlukan untuk memproses prompt, makin tinggi memori yang diperlukan, selain memori yang diperlukan untuk memuat model.

Model Gemma sebelumnya

Anda dapat menggunakan model Gemma generasi sebelumnya, yang juga tersedia dari Kaggle dan Hugging Face. Untuk detail teknis selengkapnya tentang model Gemma sebelumnya, lihat halaman kartu model berikut:

Siap untuk mulai membangun solusi? Mulai menggunakan model Gemma.