Джемма открытые модели

Семейство легких современных открытых моделей, созданных на основе тех же исследований и технологий, которые использовались при создании моделей Gemini.

Ответственный за значок дизайна

Ответственный по дизайну

Эти модели, включающие в себя комплексные меры безопасности, помогают обеспечить ответственные и надежные решения в области искусственного интеллекта посредством тщательно подобранных наборов данных и тщательной настройки.

Значок непревзойденной производительности

Непревзойденная производительность при таком размере

Модели Gemma достигают исключительных результатов в тестах размеров 2B, 7B, 9B и 27B, превосходя даже некоторые более крупные открытые модели.

Гибкая структура

Гибкая структура

Keras 3.0 обеспечивает полную совместимость с JAX, TensorFlow и PyTorch, что позволяет вам легко выбирать и переключать платформы в зависимости от вашей задачи.

Представляем
Джемма 2

Gemma 2, переработанная для обеспечения высочайшей производительности и непревзойденной эффективности, оптимизируется для молниеносного вывода на разнообразном оборудовании.

5 выстрелов

ММЛУ

Тест MMLU — это тест, который измеряет широту знаний и способность решать проблемы, приобретенные большими языковыми моделями во время предварительного обучения.

25 выстрелов

АРК-С

Тест ARC-c представляет собой более специализированную подгруппу набора данных ARC-e, содержащую только вопросы, на которые неправильно ответили обычные алгоритмы (база поиска и совпадение слов).

5 выстрелов

GSM8K

Тест GSM8K проверяет способность языковой модели решать математические задачи на уровне начальной школы, которые часто требуют нескольких этапов рассуждения.

3-5 выстрелов

AGIEval

Тест AGIEval проверяет общий интеллект языковой модели, используя вопросы, полученные из реальных экзаменов, предназначенных для оценки интеллектуальных способностей человека.

3 выстрела, ЦТ

BBH

Тест BBH (BIG-Bench Hard) фокусируется на задачах, которые выходят за рамки возможностей существующих языковых моделей, проверяя их пределы в различных областях рассуждения и понимания.

3 выстрела, F1

УРОНИТЬ

DROP — это тест на понимание прочитанного, который требует дискретного рассуждения по абзацам.

5 выстрелов

Виногранде

Тест Виногранде проверяет способность языковой модели решать неоднозначные задачи с заполнением пробелов с помощью двоичных опций, требующие обобщенных рассуждений, основанных на здравом смысле.

10 выстрелов

HellaSwag

Тест HellaSwag проверяет способность языковой модели понимать и применять здравый смысл, выбирая наиболее логичный конец истории.

4 выстрела

МАТЕМАТИКА

MATH оценивает способность языковой модели решать сложные математические словесные задачи, требующие рассуждения, многоэтапного решения задач и понимания математических концепций.

0 выстрелов

АРК-е

Тест ARC-e проверяет продвинутые навыки ответа на вопросы языковой модели с помощью естественных научных вопросов уровня начальной школы с несколькими вариантами ответов.

0 выстрелов

ПИКА

Тест PIQA проверяет способность языковой модели понимать и применять физические знания, отвечая на вопросы о повседневных физических взаимодействиях.

0 выстрелов

СИКА

Тест SIQA оценивает понимание языковой моделью социальных взаимодействий и социального здравого смысла, задавая вопросы о действиях людей и их социальных последствиях.

0 выстрелов

Булк

Тест BoolQ проверяет способность языковой модели отвечать на естественные вопросы типа «да/нет», проверяя способность модели выполнять реальные задачи вывода на естественном языке.

5 выстрелов

TriviaQA

Тест TriviaQA проверяет навыки понимания прочитанного с помощью тройки вопросов-ответов-доказательств.

5 выстрелов

НК

Тест NQ (Естественные вопросы) проверяет способность языковой модели находить и понимать ответы в целых статьях Википедии, моделируя реальные сценарии ответов на вопросы.

пройти@1

HumanEval

Тест HumanEval проверяет способность языковой модели генерировать код, оценивая, проходят ли ее решения функциональные модульные тесты для решения проблем программирования.

3 выстрела

МБПП

Тест MBPP проверяет способность языковой модели решать основные задачи программирования на Python, уделяя особое внимание фундаментальным концепциям программирования и использованию стандартной библиотеки.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Джемма 1

2,5Б

42,3

Джемма 2

2.6Б

51,3

Мистраль

62,5

ЛЛАМА 3

66,6

Джемма 1

64,4

Джемма 2

71,3

Джемма 2

27Б

75,2

Джемма 1

2,5Б

48,5

Джемма 2

2.6Б

55,4

Мистраль

60,5

ЛЛАМА 3

59,2

Джемма 1

61,1

Джемма 2

68,4

Джемма 2

27Б

71,4

Джемма 1

2,5Б

15.1

Джемма 2

2.6Б

23,9

Мистраль

39,6

ЛЛАМА 3

45,7

Джемма 1

51,8

Джемма 2

68,6

Джемма 2

27Б

74,0

Джемма 1

2,5Б

24.2

Джемма 2

2.6Б

30,6

Мистраль

44,0

ЛЛАМА 3

45,9

Джемма 1

44,9

Джемма 2

52,8

Джемма 2

27Б

55,1

Джемма 1

2,5Б

35,2

Джемма 2

2.6Б

41,9

Мистраль

56,0

ЛЛАМА 3

61,1

Джемма 1

59,0

Джемма 2

68,2

Джемма 2

27Б

74,9

Джемма 1

2,5Б

48,5

Джемма 2

2.6Б

52,0

Мистраль

63,8

ЛЛАМА 3

58,4

Джемма 1

56,3

Джемма 2

69,4

Джемма 2

27Б

74,2

Джемма 1

2,5Б

66,8

Джемма 2

2.6Б

70,9

Мистраль

78,5

ЛЛАМА 3

76,1

Джемма 1

79,0

Джемма 2

80,6

Джемма 2

27Б

83,7

Джемма 1

2,5Б

71,7

Джемма 2

2.6Б

73,0

Мистраль

83,0

ЛЛАМА 3

82,0

Джемма 1

82,3

Джемма 2

81,9

Джемма 2

27Б

86,4

Джемма 1

2,5Б

11,8

Джемма 2

2.6Б

15,0

Мистраль

12,7

Джемма 1

24,3

Джемма 2

36,6

Джемма 2

27Б

42,3

Джемма 1

2,5Б

73,2

Джемма 2

2.6Б

80,1

Мистраль

80,5

Джемма 1

81,5

Джемма 2

88,0

Джемма 2

27Б

88,6

Джемма 1

2,5Б

77,3

Джемма 2

2.6Б

77,8

Мистраль

82,2

Джемма 1

81,2

Джемма 2

81,7

Джемма 2

27Б

83,2

Джемма 1

2,5Б

49,7

Джемма 2

2.6Б

51,9

Мистраль

47,0

Джемма 1

51,8

Джемма 2

53,4

Джемма 2

27Б

53,7

Джемма 1

2,5Б

69,4

Джемма 2

2.6Б

72,5

Мистраль

83,2

Джемма 1

83,2

Джемма 2

84,2

Джемма 2

27Б

84,8

Джемма 1

2,5Б

53,2

Джемма 2

2.6Б

59,4

Мистраль

62,5

Джемма 1

63,4

Джемма 2

76,6

Джемма 2

27Б

83,7

Джемма 1

2,5Б

12,5

Джемма 2

2.6Б

16,7

Мистраль

23.2

Джемма 1

23,0

Джемма 2

29,2

Джемма 2

27Б

34,5

Джемма 1

2,5Б

22,0

Джемма 2

2.6Б

17,7

Мистраль

26,2

Джемма 1

32,3

Джемма 2

40,2

Джемма 2

27Б

51,8

Джемма 1

2,5Б

29,2

Джемма 2

2.6Б

29,6

Мистраль

40,2

Джемма 1

44,4

Джемма 2

52,4

Джемма 2

27Б

62,6

*Это тесты для предварительно обученных моделей. Подробную информацию о производительности с другими методологиями см. в техническом отчете.

Модельная семья Джеммы

Новый выпуск

Джемма 2

Gemma 2 предлагает три новые, мощные и эффективные модели, доступные с размерами 2, 9 и 27 миллиардов параметров, все со встроенными улучшениями безопасности.

Начать

Новый выпуск

ДатаГемма

DataGemma — это первые открытые модели, предназначенные для подключения LLM к обширным реальным данным, полученным из Google Data Commons.

Начать

Джемма 1

Модели Gemma — это легкие большие языковые модели преобразования текста в текст, предназначенные только для декодера, обученные на огромном наборе данных текста, кода и математического контента для различных задач обработки естественного языка.

Начать

Рекуррентная Джемма

RecurrentGemma — это технически отличная модель, которая использует рекуррентные нейронные сети и локальное внимание для повышения эффективности памяти.

Начать

ПалиДжемма

PaliGemma — это модель открытого языка видения, вдохновленная PaLI-3 и использующая SigLIP и Gemma, разработанная как универсальная модель для решения широкого спектра задач на языке видения.

Начать

КодДжемма

Используя основу наших оригинальных предварительно обученных моделей Gemma, CodeGemma предоставляет мощные возможности завершения и генерации кода в размерах, подходящих для вашего локального компьютера.

Начать