Modelos abiertos de Gemma

Una familia de modelos abiertos, ligeros y de vanguardia creados a partir de la misma investigación y tecnología que se utilizaron para crear los modelos de Gemini

Ícono de Responsabilidad desde el diseño

Diseño responsable

Estos modelos incorporan medidas de seguridad integrales para garantizar soluciones de IA responsables y confiables a través de conjuntos de datos seleccionados y un ajuste riguroso.

Ícono de rendimiento sin igual

Rendimiento sin igual en tamaño

Los modelos de Gemma logran resultados de comparativas excepcionales en sus tamaños de 2B, 7B, 9B y 27B, incluso superan a algunos modelos abiertos más grandes.

Framework flexible

Implementación flexible

Implementa sin problemas en dispositivos móviles, la Web y la nube con Keras, JAX, MediaPipe, PyTorch, Hugging Face y mucho más.

Prueba Gemma 2

Gemma 2, rediseñado para ofrecer un rendimiento superior y una eficiencia inigualable, se optimiza para realizar inferencias ultrarrápidas en diversos hardware.

5 tomas

MMLU

La comparativa de MMLU es una prueba que mide la amplitud del conocimiento y la capacidad de resolución de problemas que adquieren los modelos grandes de lenguaje durante el entrenamiento previo.

25 fotos

ARC-C

La comparativa de ARC-c es un subconjunto más enfocado del conjunto de datos de ARC-e, que contiene solo preguntas respondidas de forma incorrecta por algoritmos comunes (basados en la recuperación y la coocurrencia de palabras).

5 tomas

GSM8K

La comparativa GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos a nivel de la escuela primaria que, a menudo, requieren varios pasos de razonamiento.

3 a 5 tomas

AGIEval

La comparativa de AGIEval prueba la inteligencia general de un modelo de lenguaje con preguntas derivadas de exámenes del mundo real diseñados para evaluar las habilidades intelectuales humanas.

3 fotos, CoT

BBH

La comparativa BBH (BIG-Bench Hard) se enfoca en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales y prueba sus límites en varios dominios de razonamiento y comprensión.

3 fotos, F1

DROP

DROP es una comparativa de comprensión lectora que requiere un razonamiento discreto sobre los párrafos.

5 tomas

Winogrande

La comparativa de Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de completar el espacio en blanco con opciones binarias, lo que requiere un razonamiento generalizado de sentido común.

10 fotos

HellaSwag

La comparativa HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico de una historia.

4 tomas

MATH

MATH evalúa la capacidad de un modelo de lenguaje para resolver problemas verbales matemáticos complejos, lo que requiere razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.

Sin ejemplos

ARC-e

La comparativa ARC-e prueba las habilidades avanzadas de respuesta a preguntas de un modelo de lenguaje con preguntas de ciencia de opción múltiple genuinas a nivel de la escuela primaria.

Sin ejemplos

PIQA

La comparativa de PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico de sentido común respondiendo preguntas sobre interacciones físicas cotidianas.

Sin ejemplos

SIQA

La comparativa de SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social mediante preguntas sobre las acciones de las personas y sus implicaciones sociales.

Sin ejemplos

Boolq

La comparativa de BoolQ prueba la capacidad de un modelo de lenguaje para responder preguntas de sí o no que ocurren de forma natural, lo que prueba la capacidad de los modelos para realizar tareas de inferencia de lenguaje natural en el mundo real.

5 tomas

TriviaQA

La comparativa de TriviaQA prueba las habilidades de comprensión lectora con triples pregunta-respuesta-evidencia.

5 tomas

NQ

La comparativa de NQ (preguntas naturales) prueba la capacidad de un modelo de lenguaje para encontrar y comprender respuestas en artículos completos de Wikipedia, simulando situaciones de respuesta a preguntas del mundo real.

pass@1

HumanEval

La comparativa HumanEval prueba las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan las pruebas de unidades funcionales para problemas de programación.

3 tomas

MBPP

La comparativa de MBPP prueba la capacidad de un modelo de lenguaje para resolver problemas básicos de programación de Python, enfocándose en los conceptos fundamentales de programación y el uso de bibliotecas estándar.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,500 millones

42.3

Gemma 2

2,600 millones

51.3

Mistral

7B

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9,000 millones

71.3

Gemma 2

27B

75.2

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9,000 millones

68.4

Gemma 2

27B

71.4

Gemma 1

2,500 millones

15.1

Gemma 2

2,600 millones

23.9

Mistral

7B

39.6

LLAMA 3

8B

45.7

Gemma 1

7B

51.8

Gemma 2

9,000 millones

68.6

Gemma 2

27B

74.0

Gemma 1

2,500 millones

24.2

Gemma 2

2,600 millones

30.6

Mistral

7B

44.0

LLAMA 3

8B

45.9

Gemma 1

7B

44.9

Gemma 2

9,000 millones

52.8

Gemma 2

27B

55.1

Gemma 1

2,500 millones

35.2

Gemma 2

2,600 millones

41.9

Mistral

7B

56.0

LLAMA 3

8B

61.1

Gemma 1

7B

59.0

Gemma 2

9,000 millones

68.2

Gemma 2

27B

74.9

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

52.0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7B

56.3

Gemma 2

9,000 millones

69.4

Gemma 2

27B

74.2

Gemma 1

2,500 millones

66.8

Gemma 2

2,600 millones

70.9

Mistral

7B

78.5

LLAMA 3

8B

76.1

Gemma 1

7B

79.0

Gemma 2

9,000 millones

80.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

71.7

Gemma 2

2,600 millones

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9,000 millones

81.9

Gemma 2

27B

86.4

Gemma 1

2,500 millones

11.8

Gemma 2

2,600 millones

15.0

Mistral

7B

12.7

Gemma 1

7B

24.3

Gemma 2

9,000 millones

36.6

Gemma 2

27B

42.3

Gemma 1

2,500 millones

73.2

Gemma 2

2,600 millones

80.1

Mistral

7B

80.5

Gemma 1

7B

81.5

Gemma 2

9,000 millones

88.0

Gemma 2

27B

88.6

Gemma 1

2,500 millones

77.3

Gemma 2

2,600 millones

77.8

Mistral

7B

82.2

Gemma 1

7B

81.2

Gemma 2

9,000 millones

81.7

Gemma 2

27B

83.2

Gemma 1

2,500 millones

49.7

Gemma 2

2,600 millones

51.9

Mistral

7B

47.0

Gemma 1

7B

51.8

Gemma 2

9,000 millones

53.4

Gemma 2

27B

53.7

Gemma 1

2,500 millones

69.4

Gemma 2

2,600 millones

72.5

Mistral

7B

83.2

Gemma 1

7B

83.2

Gemma 2

9,000 millones

84.2

Gemma 2

27B

84.8

Gemma 1

2,500 millones

53.2

Gemma 2

2,600 millones

59.4

Mistral

7B

62.5

Gemma 1

7B

63.4

Gemma 2

9,000 millones

76.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

12.5

Gemma 2

2,600 millones

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9,000 millones

29.2

Gemma 2

27B

34.5

Gemma 1

2,500 millones

22.0

Gemma 2

2,600 millones

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9,000 millones

40.2

Gemma 2

27B

51.8

Gemma 1

2,500 millones

29.2

Gemma 2

2,600 millones

29.6

Mistral

7B

40.2

Gemma 1

7B

44.4

Gemma 2

9,000 millones

52.4

Gemma 2

27B

62.6

*Estas son las comparativas de los modelos previamente entrenados. Consulta el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.

PaliGemma 2 Nuevo

PaliGemma 2 ofrece capacidades de visión fáciles de ajustar a los modelos de lenguaje de Gemma 2, lo que permite una amplia variedad de aplicaciones que combinan la comprensión de imágenes y texto.

DataGemma

DataGemma son los primeros modelos abiertos diseñados para conectar LLM con datos extensos del mundo real extraídos de Data Commons de Google.

Alcance de Gemma

Gemma Scope ofrece a los investigadores una transparencia sin precedentes en los procesos de toma de decisiones de nuestros modelos de Gemma 2.

Explora el Gemmaverse

Un vasto ecosistema de herramientas y modelos de Gemma creados por la comunidad, listos para impulsar y, además, inspirar tu innovación

Implementar modelos

Elige el destino de la implementación

Ícono de implementación para dispositivos móvilesDispositivos móviles

Implementa en el dispositivo con Google AI Edge

Implementa directamente en los dispositivos para obtener una funcionalidad sin conexión y de baja latencia. Ideal para aplicaciones que requieren privacidad y capacidad de respuesta en tiempo real, como apps para dispositivos móviles, dispositivos de la IoT y sistemas integrados.

ícono webWeb

Integrarse sin problemas en aplicaciones web

Potencia tus sitios web y servicios web con capacidades avanzadas de IA, lo que permite funciones interactivas, contenido personalizado y automatización inteligente.

Ícono de CloudNube

Escala sin esfuerzo con la infraestructura de nube

Aprovecha la escalabilidad y la flexibilidad de la nube para controlar implementaciones a gran escala, cargas de trabajo exigentes y aplicaciones de IA complejas.

Desbloquea la comunicación global

Únete a nuestra competencia global de Kaggle. Crea variantes del modelo de Gemma para un idioma específico o un aspecto cultural único