Modelos abiertos de Gemma

Una familia de modelos abiertos, livianos y de última generación creados a partir de la misma investigación y tecnología que se utilizaron para crear los modelos de Gemini

Ícono de Diseño responsable por

Diseño responsable

Estos modelos incorporan medidas de seguridad integrales y ayudan a garantizar soluciones de IA responsables y confiables mediante conjuntos de datos seleccionados y ajustes rigurosos.

Ícono de rendimiento sin igual

Rendimiento inigualable en el tamaño

Los modelos de Gemma logran resultados de comparativas excepcionales en sus tamaños de 2B, 7B, 9B y 27B, incluso superan a algunos modelos abiertos más grandes.

Framework flexible

Entorno flexible

Con Keras 3.0, disfruta de una compatibilidad perfecta con JAX, TensorFlow y PyTorch, lo que te permite elegir y cambiar de framework sin esfuerzo según la tarea.

Presentamos
Gemma 2

Gemma 2, rediseñado para ofrecer un rendimiento superior y una eficiencia inigualable, se optimiza para realizar inferencias increíblemente rápidas en diversos hardware.

5 tomas

MMLU

La comparativa de MMLU es una prueba que mide la amplitud del conocimiento y la capacidad de resolución de problemas que adquieren los modelos grandes de lenguaje durante el entrenamiento previo.

25 tomas

ARC-C

La comparativa de ARC-c es un subconjunto más enfocado del conjunto de datos de ARC-e, que contiene solo preguntas respondidas incorrectamente por algoritmos comunes (base de recuperación y coexistencia de palabras).

5 tomas

GSM8K

La comparativa GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos de nivel primario que suelen requerir varios pasos de razonamiento.

De 3 a 5 tomas

AGIEval

La comparativa de AGIEval pone a prueba la inteligencia general de un modelo de lenguaje mediante preguntas derivadas de exámenes del mundo real diseñados para evaluar las capacidades intelectuales humanas.

3 tomas, CoT

BBH

La comparativa BBH (BIG-Bench Hard) se enfoca en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales y prueban sus límites en varios dominios de razonamiento y comprensión.

3 fotos, F1

DROP

DROP es una comparativa de comprensión lectora que requiere un razonamiento discreto en lugar de párrafos.

5 tomas

Winogrande

La comparativa de Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de completar espacios en blanco con opciones binarias, lo que requiere un razonamiento de sentido común generalizado.

10 fotos

HellaSwag

La comparativa de HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico para una historia.

4 tomas

MATH

Las MATH evalúan la capacidad de un modelo de lenguaje para resolver problemas matemáticos complejos de palabras, que requieren razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.

Sin ejemplos

ARC-e

La comparativa ARC-e pone a prueba las habilidades avanzadas de respuesta de preguntas de un modelo de lenguaje con preguntas de ciencia de opción múltiple y genuinas de nivel escolar.

Sin ejemplos

PIQA

La comparativa PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico del sentido común respondiendo preguntas sobre las interacciones físicas cotidianas.

Sin ejemplos

SIQA

La comparativa de SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social mediante preguntas sobre las acciones de las personas y sus implicaciones sociales.

Sin ejemplos

Boolq

La comparativa de BoolQ prueba la capacidad de un modelo de lenguaje para responder preguntas de sí o no que ocurren de forma natural, lo que prueba la capacidad de los modelos para realizar tareas de inferencia de lenguaje natural en el mundo real.

5 tomas

TriviaQA

La comparativa de TriviaQA prueba las habilidades de comprensión lectora con triples pregunta-respuesta-evidencia.

5 tomas

NQ

Las comparativas de NQ (preguntas naturales) prueban la capacidad de un modelo de lenguaje para encontrar y comprender respuestas en artículos completos de Wikipedia, mediante la simulación de escenarios de respuestas a preguntas del mundo real.

pass@1

HumanEval

La comparativa HumanEval prueba las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan las pruebas de unidades funcionales para problemas de programación.

3 tomas

MBPP

Las comparativas de MBPP ponen a prueba la capacidad de un modelo de lenguaje para resolver problemas de programación básicos de Python, con un enfoque en los conceptos fundamentales de la programación y el uso estándar de la biblioteca.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,500 millones

42.3

Gemma 2

2,600 millones

51.3

Mistral

7B

62.5

LLAMA 3

8,000 millones

66.6

Gemma 1

7,000 millones

64.4

Gemma 2

9,000 millones

71.3

Gemma 2

27B

75.2

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

55,4

Mistral

7,000 millones

60.5

LLAMA 3

8B

59.2

Gemma 1

7,000 millones

61.1

Gemma 2

9,000 millones

68.4

Gemma 2

27B

71,4

Gemma 1

2,500 millones

15.1

Gemma 2

2,600 millones

23.9

Mistral

7,000 millones

39,6

LLAMA 3

8B

45.7

Gemma 1

7,000 millones

51.8

Gemma 2

9,000 millones

68.6

Gemma 2

27B

74.0

Gemma 1

2,500 millones

24.2

Gemma 2

2,600 millones

30.6

Mistral

7B

44.0

LLAMA 3

8,000 millones

45.9

Gemma 1

7B

44.9

Gemma 2

9,000 millones

52.8

Gemma 2

27B

55.1

Gemma 1

2,500 millones

35.2

Gemma 2

2,600 millones

41.9

Mistral

7,000 millones

56,0

LLAMA 3

8,000 millones

61.1

Gemma 1

7B

59.0

Gemma 2

9,000 millones

68.2

Gemma 2

27,000 millones

74.9

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

52,0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7,000 millones

56.3

Gemma 2

9,000 millones

69.4

Gemma 2

27B

74.2

Gemma 1

2,500 millones

66.8

Gemma 2

2,600 millones

70.9

Mistral

7B

78.5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9,000 millones

80.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

71.7

Gemma 2

2,600 millones

73,0

Mistral

7B

83.0

LLAMA 3

8B

82,0

Gemma 1

7B

82,3

Gemma 2

9,000 millones

81.9

Gemma 2

27B

86.4

Gemma 1

2,500 millones

11.8

Gemma 2

2,600 millones

15.0

Mistral

7,000 millones

12.7

Gemma 1

7,000 millones

24,3

Gemma 2

9,000 millones

36,6

Gemma 2

27B

42.3

Gemma 1

2,500 millones

73.2

Gemma 2

2,600 millones

80,1

Mistral

7B

80,5

Gemma 1

7,000 millones

81.5

Gemma 2

9,000 millones

88.0

Gemma 2

27,000 millones

88.6

Gemma 1

2,500 millones

77.3

Gemma 2

2,600 millones

77.8

Mistral

7B

82.2

Gemma 1

7,000 millones

81.2

Gemma 2

9,000 millones

81,7

Gemma 2

27B

83.2

Gemma 1

2,500 millones

49.7

Gemma 2

2,600 millones

51.9

Mistral

7B

47,0

Gemma 1

7,000 millones

51.8

Gemma 2

9,000 millones

53.4

Gemma 2

27B

53,7

Gemma 1

2,500 millones

69.4

Gemma 2

2,600 millones

72.5

Mistral

7B

83.2

Gemma 1

7,000 millones

83,2

Gemma 2

9,000 millones

84,2

Gemma 2

27,000 millones

84.8

Gemma 1

2,500 millones

53.2

Gemma 2

2,600 millones

59,4

Mistral

7B

62.5

Gemma 1

7B

63.4

Gemma 2

9,000 millones

76.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

12.5

Gemma 2

2,600 millones

16,7

Mistral

7,000 millones

23.2

Gemma 1

7B

23.0

Gemma 2

9,000 millones

29.2

Gemma 2

27,000 millones

34.5

Gemma 1

2,500 millones

22.0

Gemma 2

2,600 millones

17.7

Mistral

7,000 millones

26,2

Gemma 1

7,000 millones

32,3

Gemma 2

9,000 millones

40.2

Gemma 2

27B

51.8

Gemma 1

2,500 millones

29.2

Gemma 2

2,600 millones

29.6

Mistral

7B

40,2

Gemma 1

7,000 millones

44.4

Gemma 2

9,000 millones

52,4

Gemma 2

27B

62.6

* Estas son las comparativas de los modelos previamente entrenados. Consulta el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.

Familia de modelos de Gemma

Nuevo lanzamiento

Gemma 2

Gemma 2 ofrece tres modelos nuevos, potentes y eficientes disponibles en 2, 9 y 27,000 millones de tamaños de parámetros, todos con avances de seguridad integrados.

Nuevo lanzamiento

DataGemma

DataGemma son los primeros modelos abiertos diseñados para conectar LLM con datos extensos del mundo real extraídos de Data Commons de Google.

Gemma 1

Los modelos Gemma son modelos grandes de lenguaje ligeros de texto a texto solo con decodificador, entrenados en un enorme conjunto de datos de texto, código y contenido matemático para una variedad de tareas de procesamiento de lenguaje natural.

RecurrentGemma

RecurrentGemma es un modelo técnicamente distinto que aprovecha las redes neuronales recurrentes y la atención local para mejorar la eficiencia de la memoria.

PaliGemma

PaliGemma es un modelo abierto de lenguaje de visión inspirado en PaLI-3, que aprovecha SigLIP y Gemma, diseñado como un modelo versátil para transferir a una amplia gama de tareas de lenguaje de visión.

CodeGemma

CodeGemma aprovecha la base de nuestros modelos originales previamente entrenados de Gemma y ofrece potentes capacidades de finalización y generación de código en tamaños que se adaptan a tu computadora local.

Guías de inicio rápido para desarrolladores

Libro de recetas de Gemma

Explora una colección de recetas prácticas y ejemplos que muestran la potencia y la versatilidad de Gemma para tareas como generar leyendas de imágenes con PaliGemma, generar código con CodeGemma y crear chatbots con modelos de Gemma ajustados.

Desarrollo de IA responsable

Responsabilidad desde el diseño

Previamente entrenados con datos cuidadosamente seleccionados y ajustados para la seguridad además, lo que ayuda a potenciar el desarrollo seguro y responsable de IA basado en modelos de Gemma.

Evaluación sólida y transparente

Las evaluaciones integrales y los informes transparentes revelan las limitaciones del modelo para adoptar un enfoque responsable para cada caso de uso.

Impulsamos el desarrollo responsable

El kit de herramientas de IA generativa responsable ayuda a los desarrolladores a diseñar e implementar prácticas recomendadas de IA responsable.

Ícono de Google Cloud

Optimizado para Google Cloud

Con los modelos de Gemma en Google Cloud, puedes personalizar en profundidad el modelo según tus necesidades específicas con las herramientas completamente administradas de Vertex AI o la opción autoadministrada de GKE y, luego, implementarlo en una infraestructura flexible, rentable y optimizada para la IA.

Aceleración de la investigación académica con créditos de Google Cloud

Recientemente, el programa de investigación académica concluyó su período de solicitud y otorgó créditos de Google Cloud para apoyar a los investigadores que superan los límites del descubrimiento científico con modelos de Gemma. Esperamos con ansias ver las investigaciones innovadoras que surgirán de esta iniciativa.

No te pierdas futuras oportunidades para avanzar en tu investigación con Google Cloud.

Únete a la comunidad

Conéctate, explora y comparte tus conocimientos con otras personas en la comunidad de modelos de AA.