Modelos abiertos de Gemma

Una familia de modelos abiertos ligeros y de última generación creados a partir de la misma investigación y tecnología que se usaron para crear los modelos de Gemini

Ícono de Diseño responsable por

Diseño responsable desde el punto de vista

Estos modelos incorporan medidas de seguridad integrales y ayudan a garantizar soluciones de IA responsables y confiables mediante conjuntos de datos seleccionados y ajustes rigurosos.

Ícono de rendimiento inigualable

Rendimiento inigualable en el tamaño

Los modelos de Gemma logran resultados comparativos excepcionales en sus tamaños de 2B, 7B, 9B y 27B, incluso superan a algunos modelos abiertos más grandes.

Entorno flexible

Entorno flexible

Con Keras 3.0, disfruta de una compatibilidad sin interrupciones con JAX, TensorFlow y PyTorch, lo que te permite elegir y cambiar los frameworks sin esfuerzo según la tarea.

Presentamos
Gemma 2

Rediseñado para ofrecer un rendimiento extraordinario y una eficiencia inigualable, Gemma 2 se optimiza para lograr una inferencia increíblemente rápida en diversos hardware.

5 tomas

MMLU

Las comparativas de MMLU son una prueba que mide la amplitud del conocimiento y la capacidad de resolución de problemas que adquieren los modelos grandes de lenguaje durante el entrenamiento previo.

25 tomas

ARC-C

La comparativa de ARC-c es un subconjunto más enfocado del conjunto de datos de ARC-e, que contiene solo preguntas respondidas incorrectamente por algoritmos comunes (base de recuperación y coexistencia de palabras).

5 tomas

GSM8K

La comparativa GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos de nivel primario que suelen requerir varios pasos de razonamiento.

De 3 a 5 tomas

AGIEval

La comparativa de AGIEval pone a prueba la inteligencia general de un modelo de lenguaje mediante preguntas derivadas de exámenes del mundo real diseñados para evaluar las capacidades intelectuales humanas.

3 tomas, CoT

BBH

La comparativa BBH (BIG-Bench Hard) se enfoca en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales y prueban sus límites en varios dominios de razonamiento y comprensión.

3 tomas, F1

DROP

DROP es una comparativa de comprensión lectora que requiere un razonamiento discreto en lugar de párrafos.

5 tomas

Winogrande

La comparativa de Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de completar espacios en blanco con opciones binarias, lo que requiere un razonamiento de sentido común generalizado.

10 intentos

HellaSwag

La comparativa de HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico para una historia.

4 tomas

MATEMÁTICAS

Las MATH evalúan la capacidad de un modelo de lenguaje para resolver problemas matemáticos complejos de palabras, que requieren razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.

Sin ejemplos

ARC-e

La comparativa ARC-e pone a prueba las habilidades avanzadas de respuesta de preguntas de un modelo de lenguaje con preguntas de ciencia de opción múltiple y genuinas de nivel escolar.

Sin ejemplos

PIQA

La comparativa PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico del sentido común respondiendo preguntas sobre las interacciones físicas cotidianas.

Sin ejemplos

SIQA

La comparativa SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social haciendo preguntas sobre las acciones de las personas y sus implicaciones sociales.

Sin ejemplos

Boolq

La comparativa BoolQ prueba la capacidad de un modelo de lenguaje para responder preguntas de tipo sí/no naturales, poniendo a prueba la capacidad del modelo para realizar tareas de inferencia de lenguaje natural del mundo real.

5 tomas

TriviaQA

La comparativa de TriviaQA evalúa las habilidades de comprensión lectora con triples de evidencia de pregunta y respuesta.

5 tomas

NQ

Las comparativas de NQ (preguntas naturales) ponen a prueba la capacidad de un modelo de lenguaje para encontrar y comprender respuestas en artículos completos de Wikipedia, mediante la simulación de escenarios de respuestas a preguntas del mundo real.

pase@1

HumanEval

La comparativa de HumanEval pone a prueba las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan las pruebas de unidades funcionales para problemas de programación.

3 tomas

MBPP

Las comparativas de MBPP ponen a prueba la capacidad de un modelo de lenguaje para resolver problemas de programación básicos de Python, con un enfoque en los conceptos fundamentales de la programación y el uso estándar de la biblioteca.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,500 millones

42.3

Gemma 2

2,600 millones

51,3

Mistral

7,000 millones

62.5

LLAMA 3

8,000 millones

66.6

Gemma 1

7,000 millones

64.4

Gemma 2

9,000 millones

71,3

Gemma 2

27,000 millones

75,2

Gemma 1

2,500 millones

48,5

Gemma 2

2,600 millones

55,4

Mistral

7,000 millones

60.5

LLAMA 3

8,000 millones

59,2

Gemma 1

7,000 millones

61.1

Gemma 2

9,000 millones

68.4

Gemma 2

27,000 millones

71,4

Gemma 1

2,500 millones

15.1

Gemma 2

2,600 millones

23,9

Mistral

7,000 millones

39,6

LLAMA 3

8,000 millones

45.7

Gemma 1

7,000 millones

51.8

Gemma 2

9,000 millones

68.6

Gemma 2

27,000 millones

74,0

Gemma 1

2,500 millones

24.2

Gemma 2

2,600 millones

30.6

Mistral

7,000 millones

44,0

LLAMA 3

8,000 millones

45.9

Gemma 1

7,000 millones

44.9

Gemma 2

9,000 millones

52.8

Gemma 2

27,000 millones

55.1

Gemma 1

2,500 millones

35,2

Gemma 2

2,600 millones

41.9

Mistral

7,000 millones

56,0

LLAMA 3

8,000 millones

61.1

Gemma 1

7,000 millones

59,0

Gemma 2

9,000 millones

68.2

Gemma 2

27,000 millones

74.9

Gemma 1

2,500 millones

48,5

Gemma 2

2,600 millones

52,0

Mistral

7,000 millones

63.8

LLAMA 3

8,000 millones

58.4

Gemma 1

7,000 millones

56,3

Gemma 2

9,000 millones

69.4

Gemma 2

27,000 millones

74,2

Gemma 1

2,500 millones

66.8

Gemma 2

2,600 millones

70.9

Mistral

7,000 millones

78.5

LLAMA 3

8,000 millones

76,1

Gemma 1

7,000 millones

79,0

Gemma 2

9,000 millones

80,6

Gemma 2

27,000 millones

83.7

Gemma 1

2,500 millones

71.7

Gemma 2

2,600 millones

73,0

Mistral

7,000 millones

83.0

LLAMA 3

8,000 millones

82,0

Gemma 1

7,000 millones

82,3

Gemma 2

9,000 millones

81,9

Gemma 2

27,000 millones

86.4

Gemma 1

2,500 millones

11.8

Gemma 2

2,600 millones

15.0

Mistral

7,000 millones

12.7

Gemma 1

7,000 millones

24,3

Gemma 2

9,000 millones

36,6

Gemma 2

27,000 millones

42.3

Gemma 1

2,500 millones

73.2

Gemma 2

2,600 millones

80,1

Mistral

7,000 millones

80,5

Gemma 1

7,000 millones

81.5

Gemma 2

9,000 millones

88,0

Gemma 2

27,000 millones

88.6

Gemma 1

2,500 millones

77.3

Gemma 2

2,600 millones

77.8

Mistral

7,000 millones

82,2

Gemma 1

7,000 millones

81,2

Gemma 2

9,000 millones

81,7

Gemma 2

27,000 millones

83,2

Gemma 1

2,500 millones

49,7

Gemma 2

2,600 millones

51.9

Mistral

7,000 millones

47,0

Gemma 1

7,000 millones

51.8

Gemma 2

9,000 millones

53,4

Gemma 2

27,000 millones

53,7

Gemma 1

2,500 millones

69.4

Gemma 2

2,600 millones

72,5

Mistral

7,000 millones

83,2

Gemma 1

7,000 millones

83,2

Gemma 2

9,000 millones

84,2

Gemma 2

27,000 millones

84.8

Gemma 1

2,500 millones

53.2

Gemma 2

2,600 millones

59,4

Mistral

7,000 millones

62.5

Gemma 1

7,000 millones

63,4

Gemma 2

9,000 millones

76,6

Gemma 2

27,000 millones

83.7

Gemma 1

2,500 millones

12.5

Gemma 2

2,600 millones

16,7

Mistral

7,000 millones

23.2

Gemma 1

7,000 millones

23.0

Gemma 2

9,000 millones

29.2

Gemma 2

27,000 millones

34,5

Gemma 1

2,500 millones

22.0

Gemma 2

2,600 millones

17.7

Mistral

7,000 millones

26,2

Gemma 1

7,000 millones

32,3

Gemma 2

9,000 millones

40,2

Gemma 2

27,000 millones

51.8

Gemma 1

2,500 millones

29.2

Gemma 2

2,600 millones

29,6

Mistral

7,000 millones

40,2

Gemma 1

7,000 millones

44,4

Gemma 2

9,000 millones

52,4

Gemma 2

27,000 millones

62.6

*Estas son las comparativas para los modelos previamente entrenados. Consulta el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.

Guías de inicio rápido para desarrolladores

Libro de soluciones de Gemma

Explora una colección de recetas prácticas y ejemplos que muestran la potencia y la versatilidad de Gemma para tareas como generar leyendas de imágenes con PaliGemma, generar código con CodeGemma y crear chatbots con modelos de Gemma ajustados.

Desarrollo de IA responsable

Responsabilidad desde el diseño

Previamente entrenados con datos cuidadosamente seleccionados y ajustados para la seguridad además, lo que ayuda a potenciar el desarrollo seguro y responsable de la IA basado en modelos de Gemma.

Evaluación sólida y transparente

Las evaluaciones integrales y los informes transparentes revelan las limitaciones del modelo para adoptar un enfoque responsable en cada caso de uso.

Impulsamos el desarrollo responsable

El kit de herramientas de IA generativa responsable ayuda a los desarrolladores a diseñar e implementar las prácticas recomendadas de la IA responsable.

Ícono de Google Cloud

Optimizado para Google Cloud

Con los modelos de Gemma en Google Cloud, puedes personalizar en profundidad el modelo según tus necesidades específicas con las herramientas completamente administradas de Vertex AI o la opción autoadministrada de GKE y, luego, implementarlo en una infraestructura flexible, rentable y optimizada para la IA.

Acelera la investigación académica con los créditos de Google Cloud

Recientemente, el Programa de Investigación Académica concluyó el período de postulación y otorgó créditos de Google Cloud para apoyar a los investigadores que amplían los límites del descubrimiento científico usando modelos Gemma. Nos entusiasma ver la investigación revolucionaria que surge de esta iniciativa.

No te pierdas las próximas oportunidades para hacer avanzar tu investigación con Google Cloud.

Únete a la comunidad

Conéctate, explora y comparte tus conocimientos con otros miembros de la comunidad de modelos de AA.