Gemma Açık Modelleri

Gemini modellerini oluştururken kullanılan araştırma ve teknolojiyle oluşturulan hafif, son teknoloji ürünü açık model ailesi

Gemma modelleri logosu

Tasarımdan sorumlu

Kapsamlı güvenlik önlemleri uygulayan bu modeller, seçilmiş veri kümeleri ve titiz ayarlamalar aracılığıyla sorumlu ve güvenilir yapay zeka çözümleri sağlamaya yardımcı olur.

Gemma modelleri logosu

Boyut bakımından benzersiz performans

Gemma modelleri, 2B ve 7B boyutlarında olağanüstü karşılaştırma sonuçları elde ediyor ve hatta bazı daha büyük açık modellerden daha iyi performans gösteriyor.

Gemma modelleri logosu

Çerçeve esnek

Keras 3.0 sayesinde JAX, TensorFlow ve PyTorch ile sorunsuz uyumluluğun keyfini çıkarırken görevinize göre çerçeveleri zahmetsizce seçip değiştirebilirsiniz.

Karşılaştırmalar

Gemma, Llama 2 ve Mistral 7B gibi popüler modellere kıyasla son teknoloji ürünü performans performansı konusunda çıtayı yükseltiyor.

5 atış, ilk 1

MMLU

MMLU karşılaştırma testi, ön eğitim sırasında büyük dil modellerinin edindiği bilgi düzeyini ve sorun çözme becerisini ölçen bir testtir.

0 Atış

HellaSwag

HellaSwag karşılaştırması, bir dil modelinin bir hikayeye en mantıklı son halini seçerek sağduyulu akıl yürütmeyi anlama ve uygulama becerisini test eder.

0 Atış

200.000

PIQA karşılaştırması, bir dil modelinin günlük fiziksel etkileşimlere ilişkin soruları cevaplayarak fiziksel sağduyu bilgisini anlama ve uygulama becerisini test eder.

0 Atış

SIQA

SIQA karşılaştırması, bir dil modelinin, insanların eylemleri ve sosyal sonuçları hakkında sorular sorarak sosyal etkileşimler ve sosyal sağduyuyu anlama düzeyini değerlendirir.

0 Atış

Boolq

BoolQ karşılaştırması, bir dil modelinin doğal olarak ortaya çıkan (istenmeyen ve kısıtlanmamış ortamlarda oluşturulan) evet/hayır sorularını yanıtlama yeteneğini test eder ve modellerin, gerçek dünyadaki doğal dil çıkarımı görevlerini yapma yeteneğini test eder.

kısmi puanlama

Şarap Yeşili

Winogrande karşılaştırması bir dil modelinin, genelleştirilmiş sağduyulu akıl yürütme gerektiren ikili seçeneklerle belirsiz boşlukları doldurma görevlerini çözme becerisini test eder.

7 Çekim

CQA (Kalite Güvencesi)

CQA karşılaştırma özelliği, farklı türde sağduyuya dayalı bilgi gerektiren çoktan seçmeli soru cevaplarında dil modellerinin performansını değerlendirir.

OBQA (OBQA)

OBQA karşılaştırması bir dil modelinin, açık kitap sınavlarına göre modellenmiş çok adımlı akıl yürütme, sağduyulu bilgi ve zengin metin anlama ile ileri düzey soru cevaplama becerisini değerlendirir.

ARC-e

ARC-e karşılaştırması, bir dil modelinin ileri düzey soru yanıtlama becerilerini ilkokul düzeyinde, çoktan seçmeli bilimsel sorularla test eder.

ARC-c

ARC-c karşılaştırması, ARC-e veri kümesinin daha odaklanmış bir alt kümesidir ve yalnızca ortak (alma-tabanı ve kelime birlikte tekrarı) algoritmaları tarafından yanlış yanıtlanan soruları içerir.

5 Atış

TriviaQA

TriviaQA karşılaştırma özelliği, okumayı anlama becerilerini soru-cevap-kanıt üçlülerini kullanarak test eder.

kart@1

HumanEval

HumanEval karşılaştırması, bir dil modelinin çözümlerinin programlama problemlerine yönelik işlevsel birim testlerini geçip geçmediğini değerlendirerek kod oluşturma yeteneklerini test eder.

3 Çekim

MBPP

MBPP karşılaştırması, temel programlama kavramlarına ve standart kütüphane kullanımına odaklanarak bir dil modelinin temel Python programlama problemlerini çözme becerisini test eder.

maj@1

GSM8K

GSM8K karşılaştırması, bir dil modelinin, genellikle birden çok akıl yürütme adımı gerektiren okul düzeyi matematik problemlerini çözme yeteneğini test eder.

4 Çekim

MATH

MATH karşılaştırması bir dil modelinin, akıl yürütme, çok adımlı problem çözme ve matematiksel kavramları anlamayı gerektiren karmaşık matematik problemlerini çözme yeteneğini değerlendirir.

AGIEval

AGIEval karşılaştırması, insanların zihinsel yeteneklerini değerlendirmek için tasarlanmış gerçek dünya sınavlarından türetilen soruları (üniversite giriş sınavları, hukuk sınavları vb.) kullanarak bir dil modelinin genel zekasını test eder.

BH

BBH (BIG-Bench Hard) karşılaştırma standardı, mevcut dil modellerinin yeteneklerinin ötesinde değerlendirilen görevlere odaklanır ve çeşitli akıl yürütme ve anlama alanlarında bunların sınırlarını test eder.

%100

%75

%50

%25

%0

%100

%75

%50

%25

%0

Gemma

7 tl

64,3

Gemma

2b

42,3

Mistral

7 tl

62,5

LLAMA-2

13b

54,8

LLAMA-2

7 tl

45,3

Gemma

7 tl

81,2

Gemma

2b

71,4

Mistral

7 tl

81,0

LLAMA-2

13b

80,7

LLAMA-2

7 tl

77,2

Gemma

7 tl

81,2

Gemma

2b

77,3

Mistral

7 tl

82,2

LLAMA-2

13b

80,5

LLAMA-2

7 tl

78,8

Gemma

7 tl

51,8

Gemma

2b

49,7

Mistral

7 tl

47,0*

LLAMA-2

13b

50,3

LLAMA-2

7 tl

48,3

Gemma

7 tl

83,2

Gemma

2b

%

Mistral

7 tl

83,2*

LLAMA-2

13b

81,7

LLAMA-2

7 tl

77,4

Gemma

7 tl

72,3

Gemma

2b

65,4

Mistral

7 tl

74,2

LLAMA-2

13b

72,8

LLAMA-2

7 tl

69,2

Gemma

7 tl

71,3

Gemma

2b

65,3

Mistral

7 tl

66,3*

LLAMA-2

13b

67,3

LLAMA-2

7 tl

57,8

Gemma

7 tl

52,8

Gemma

2b

47,8

Mistral

7 tl

52,2

LLAMA-2

13b

%

LLAMA-2

7 tl

58,6

Gemma

7 tl

81,5

Gemma

2b

73,2

Mistral

7 tl

80,5

LLAMA-2

13b

77,3

LLAMA-2

7 tl

75,2

Gemma

7 tl

53,2

Gemma

2b

42,06

Mistral

7 tl

54,9

LLAMA-2

13b

49,4

LLAMA-2

7 tl

%

Gemma

7 tl

63,4

Gemma

2b

53,2

Mistral

7 tl

62,5

LLAMA-2

13b

79,6

LLAMA-2

7 tl

72,1

Gemma

7 tl

32,3

Gemma

2b

%

Mistral

7 tl

26,2

LLAMA-2

13b

18,3

LLAMA-2

7 tl

12,8

Gemma

7 tl

44,4

Gemma

2b

29,2

Mistral

7 tl

40,2*

LLAMA-2

13b

30,6

LLAMA-2

7 tl

20,8

Gemma

7 tl

46,4

Gemma

2b

17,7

Mistral

7 tl

35,4*

LLAMA-2

13b

28,7

LLAMA-2

7 tl

14,6

Gemma

7 tl

24,3

Gemma

2b

11,8

Mistral

7 tl

12,7

LLAMA-2

13b

3,9

LLAMA-2

7 tl

2.5

Gemma

7 tl

41,7

Gemma

2b

24,2

Mistral

7 tl

41,2*

LLAMA-2

13b

39,1

LLAMA-2

7 tl

29,3

Gemma

7 tl

55,1

Gemma

2b

35,2

Mistral

7 tl

56,1*

LLAMA-2

13b

39,4

LLAMA-2

7 tl

32,6

*Diğer yöntemlerle birlikte performansla ilgili ayrıntılar için teknik rapora bakın

Sorumlu yapay zeka geliştirme

Tasarımdan Başlayan Sorumluluk

Özenle seçilmiş veriler üzerinde önceden eğitilmiş ve güvenlik odaklı hâle getirilmiş, Gemma modelleriyle güvenli ve sorumlu yapay zeka gelişiminin desteklenmesine yardımcı olmuştur.

Güçlü ve Şeffaf Değerlendirme

Kapsamlı değerlendirmeler ve şeffaf raporlama, her kullanım alanı için sorumlu bir yaklaşım benimsemeye yönelik model sınırlamalarını ortaya çıkarır.

Sorumlu Gelişimi Destekleme

Sorumlu Üretken Yapay Zeka Araç Seti, geliştiricilerin Sorumlu Yapay Zeka ile ilgili en iyi uygulamaları tasarlayıp uygulamasını destekler.

Google Cloud simgesi

Google Cloud için optimize edilmiştir

Google Cloud'daki Gemma modelleriyle, Vertex AI'ın tümüyle yönetilen araçlarını veya GKE'nin kendi kendine yönetilen seçeneğini kullanarak modeli özel ihtiyaçlarınıza göre derinlemesine özelleştirebilir, yapay zeka açısından optimize edilmiş esnek ve uygun maliyetli altyapıya dağıtabilirsiniz.

Google Cloud kredileriyle akademik araştırmalara hız kazandırma

Akademik Araştırma Programı'nın başvuru dönemi kısa süre önce sona erdi ve Gemma modellerini kullanarak bilimsel keşiflerin sınırlarını zorlayan araştırmacıları desteklemek için Google Cloud kredisi verildi. Bu girişim sonucunda ortaya çıkan çığır açan araştırmaları görmek için sabırsızlanıyoruz.

Google Cloud ile araştırmanızı ilerletmek üzere gelecekte sunulacak fırsatlar için takipte kalın.

Topluluğa katılın

Makine öğrenimi modeli topluluğundaki diğer kullanıcılarla bağlantı kurun, keşfedin ve bilgilerinizi paylaşın.

Makine öğrenimi mühendislerine yönelik en iyi yapay zeka asistanını derlemek için yarışın

Kaggle, katılımcıların makine öğrenimi mühendisliği görevleri için en iyi yapay zeka asistanlarını geliştirmek amacıyla Gemma modellerini kullanmaya davet ettiği bir yarışma düzenliyor. Kazananlar Google I/O'da duyurulacak.

Yarışmaya katılın
Kaggle yarışma kupası