Modelos abiertos de Gemma

Una familia de modelos abiertos ligeros y de última generación creados a partir de la misma investigación y tecnología que se usaron para crear los modelos de Gemini

Ícono de Responsabilidad desde el diseño

Diseño responsable desde el punto de vista

Estos modelos incorporan medidas de seguridad integrales para garantizar soluciones de IA responsables y confiables a través de conjuntos de datos seleccionados y un ajuste riguroso.

Ícono de rendimiento sin igual

Rendimiento sin igual en tamaño

Los modelos de Gemma logran resultados de comparativas excepcionales en sus tamaños de 2B, 7B, 9B y 27B, incluso superan a algunos modelos abiertos más grandes.

Framework flexible

Entorno flexible

Con Keras 3.0, disfruta de una compatibilidad perfecta con JAX, TensorFlow y PyTorch, lo que te permite elegir y cambiar de framework sin esfuerzo según la tarea.

Presentamos
Gemma 2

Gemma 2, rediseñado para ofrecer un rendimiento superior y una eficiencia inigualable, se optimiza para realizar inferencias ultrarrápidas en diversos hardware.

5 tomas

MMLU

La comparativa de MMLU es una prueba que mide la amplitud del conocimiento y la capacidad de resolución de problemas que adquieren los modelos grandes de lenguaje durante el entrenamiento previo.

25 fotos

ARC‐C

La comparativa de ARC-c es un subconjunto más enfocado del conjunto de datos de ARC-e, que contiene solo preguntas respondidas de forma incorrecta por algoritmos comunes (basados en la recuperación y la coocurrencia de palabras).

5 tomas

GSM8K

La comparativa GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos a nivel de la escuela primaria que, a menudo, requieren varios pasos de razonamiento.

3 a 5 tomas

AGIEval

La comparativa de AGIEval pone a prueba la inteligencia general de un modelo de lenguaje mediante preguntas derivadas de exámenes del mundo real diseñados para evaluar las capacidades intelectuales humanas.

3 tomas, CoT

BBH

La comparativa BBH (BIG-Bench Hard) se enfoca en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales y prueba sus límites en varios dominios de razonamiento y comprensión.

3 tomas, F1

DROP

DROP es una comparativa de comprensión lectora que requiere un razonamiento discreto en lugar de párrafos.

5 tomas

Winogrande

La comparativa de Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de completar el espacio en blanco con opciones binarias, lo que requiere un razonamiento generalizado de sentido común.

10 intentos

HellaSwag

La comparativa de HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico para una historia.

4 tomas

MATH

MATH evalúa la capacidad de un modelo de lenguaje para resolver problemas verbales matemáticos complejos, lo que requiere razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.

Sin ejemplos

ARC-e

La comparativa ARC-e prueba las habilidades avanzadas de respuesta a preguntas de un modelo de lenguaje con preguntas de ciencia de opción múltiple genuinas a nivel de la escuela primaria.

Sin ejemplos

PIQA

La comparativa PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico del sentido común respondiendo preguntas sobre las interacciones físicas cotidianas.

Sin ejemplos

SIQA

La comparativa SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social mediante preguntas sobre las acciones de las personas y sus implicaciones sociales.

Sin ejemplos

Boolq

La comparativa de BoolQ prueba la capacidad de un modelo de lenguaje para responder preguntas de sí o no que ocurren de forma natural, lo que prueba la capacidad de los modelos para realizar tareas de inferencia de lenguaje natural en el mundo real.

5 tomas

TriviaQA

La comparativa de TriviaQA prueba las habilidades de comprensión lectora con triples pregunta-respuesta-evidencia.

5 tomas

NQ

La comparativa de NQ (preguntas naturales) prueba la capacidad de un modelo de lenguaje para encontrar y comprender respuestas en artículos completos de Wikipedia, simulando situaciones de respuesta a preguntas del mundo real.

pass@1

HumanEval

La comparativa HumanEval prueba las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan las pruebas de unidades funcionales para problemas de programación.

3 tomas

MBPP

La comparativa de MBPP prueba la capacidad de un modelo de lenguaje para resolver problemas básicos de programación de Python, enfocándose en los conceptos fundamentales de programación y el uso de bibliotecas estándar.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,500 millones

42.3

Gemma 2

2,600 millones

51.3

Mistral

7,000 millones

62.5

LLAMA 3

8B

66.6

Gemma 1

7B

64.4

Gemma 2

9,000 millones

71,3

Gemma 2

27,000 millones

75.2

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

55.4

Mistral

7B

60.5

LLAMA 3

8B

59.2

Gemma 1

7B

61.1

Gemma 2

9,000 millones

68.4

Gemma 2

27B

71.4

Gemma 1

2,500 millones

15.1

Gemma 2

2,600 millones

23,9

Mistral

7B

39,6

LLAMA 3

8,000 millones

45.7

Gemma 1

7B

51.8

Gemma 2

9,000 millones

68.6

Gemma 2

27B

74.0

Gemma 1

2,500 millones

24.2

Gemma 2

2,600 millones

30.6

Mistral

7,000 millones

44.0

LLAMA 3

8,000 millones

45.9

Gemma 1

7,000 millones

44.9

Gemma 2

9,000 millones

52.8

Gemma 2

27B

55.1

Gemma 1

2,500 millones

35.2

Gemma 2

2,600 millones

41.9

Mistral

7B

56.0

LLAMA 3

8,000 millones

61.1

Gemma 1

7,000 millones

59.0

Gemma 2

9,000 millones

68.2

Gemma 2

27,000 millones

74.9

Gemma 1

2,500 millones

48.5

Gemma 2

2,600 millones

52.0

Mistral

7B

63.8

LLAMA 3

8B

58.4

Gemma 1

7B

56.3

Gemma 2

9,000 millones

69.4

Gemma 2

27B

74,2

Gemma 1

2,500 millones

66.8

Gemma 2

2,600 millones

70.9

Mistral

7B

78.5

LLAMA 3

8,000 millones

76.1

Gemma 1

7B

79.0

Gemma 2

9,000 millones

80.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

71.7

Gemma 2

2,600 millones

73.0

Mistral

7B

83.0

LLAMA 3

8B

82.0

Gemma 1

7B

82.3

Gemma 2

9,000 millones

81.9

Gemma 2

27B

86.4

Gemma 1

2,500 millones

11.8

Gemma 2

2,600 millones

15.0

Mistral

7B

12.7

Gemma 1

7,000 millones

24.3

Gemma 2

9,000 millones

36,6

Gemma 2

27,000 millones

42.3

Gemma 1

2,500 millones

73.2

Gemma 2

2,600 millones

80,1

Mistral

7B

80.5

Gemma 1

7B

81.5

Gemma 2

9,000 millones

88.0

Gemma 2

27B

88.6

Gemma 1

2,500 millones

77.3

Gemma 2

2,600 millones

77.8

Mistral

7B

82.2

Gemma 1

7,000 millones

81.2

Gemma 2

9,000 millones

81,7

Gemma 2

27B

83.2

Gemma 1

2,500 millones

49,7

Gemma 2

2,600 millones

51.9

Mistral

7B

47.0

Gemma 1

7B

51.8

Gemma 2

9,000 millones

53.4

Gemma 2

27B

53.7

Gemma 1

2,500 millones

69.4

Gemma 2

2,600 millones

72.5

Mistral

7B

83.2

Gemma 1

7B

83.2

Gemma 2

9,000 millones

84,2

Gemma 2

27B

84.8

Gemma 1

2,500 millones

53.2

Gemma 2

2,600 millones

59,4

Mistral

7,000 millones

62.5

Gemma 1

7B

63.4

Gemma 2

9,000 millones

76.6

Gemma 2

27B

83.7

Gemma 1

2,500 millones

12.5

Gemma 2

2,600 millones

16.7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9,000 millones

29.2

Gemma 2

27,000 millones

34.5

Gemma 1

2,500 millones

22.0

Gemma 2

2,600 millones

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9,000 millones

40.2

Gemma 2

27B

51.8

Gemma 1

2,500 millones

29.2

Gemma 2

2,600 millones

29.6

Mistral

7,000 millones

40.2

Gemma 1

7B

44,4

Gemma 2

9,000 millones

52.4

Gemma 2

27B

62.6

*Estas son las comparativas de los modelos previamente entrenados. Consulta el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.

Familia de modelos de Gemma

Nuevo lanzamiento

Gemma 2

Gemma 2 ofrece tres modelos nuevos, potentes y eficientes disponibles en 2, 9 y 27 mil millones de tamaños de parámetros, todos con avances de seguridad integrados.

Nuevo lanzamiento

DataGemma

DataGemma son los primeros modelos abiertos diseñados para conectar LLM con datos extensos del mundo real extraídos de Data Commons de Google.

Gemma 1

Los modelos de Gemma son modelos de lenguaje grandes ligeros, de texto a texto y solo de decodificador, entrenados con un conjunto de datos masivo de texto, código y contenido matemático para una variedad de tareas de procesamiento de lenguaje natural.

RecurrentGemma

RecurrentGemma es un modelo técnicamente distinto que aprovecha las redes neuronales recurrentes y la atención local para mejorar la eficiencia de la memoria.

PaliGemma

PaliGemma es un modelo abierto de visión y lenguaje inspirado en PaLI-3, que aprovecha SigLIP y Gemma, diseñado como un modelo versátil para transferir a una amplia variedad de tareas de visión y lenguaje.

CodeGemma

CodeGemma aprovecha los fundamentos de nuestros modelos originales previamente entrenados de Gemma y ofrece potentes capacidades de finalización y generación de código en tamaños que se adaptan a tu computadora local.

Guías de inicio rápido para desarrolladores

Libro de soluciones de Gemma

Explora una colección de recetas y ejemplos prácticos que muestran el poder y la versatilidad de Gemma para tareas como la creación de leyendas de imágenes con PaliGemma, la generación de código con CodeGemma y la compilación de chatbots con modelos de Gemma ajustados.

Desarrollo de IA responsable

Responsabilidad desde el diseño

Se entrenan previamente con datos seleccionados cuidadosamente y se ajustan para priorizar la seguridad, lo que ayuda a potenciar el desarrollo de IA seguro y responsable basado en modelos de Gemma.

Evaluación sólida y transparente

Las evaluaciones integrales y los informes transparentes revelan las limitaciones del modelo para adoptar un enfoque responsable para cada caso de uso.

Impulsa el desarrollo responsable

El kit de herramientas de IA generativa responsable ayuda a los desarrolladores a diseñar e implementar las prácticas recomendadas de la IA responsable.

Ícono de Google Cloud

Optimizado para Google Cloud

Con los modelos de Gemma en Google Cloud, puedes personalizar en profundidad el modelo según tus necesidades específicas con las herramientas completamente administradas de Vertex AI o la opción autoadministrada de GKE y, luego, implementarlo en una infraestructura flexible, rentable y optimizada para la IA.

Aceleración de la investigación académica con créditos de Google Cloud

Recientemente, el programa de investigación académica concluyó su período de solicitud y otorgó créditos de Google Cloud para apoyar a los investigadores que superan los límites del descubrimiento científico con modelos de Gemma. Esperamos con ansias ver las investigaciones innovadoras que surgirán de esta iniciativa.

No te pierdas las próximas oportunidades para avanzar en la investigación con Google Cloud.

Únete a la comunidad

Conéctate, explora y comparte tus conocimientos con otros miembros de la comunidad de modelos de AA.