Modelos abiertos de Gemma
Una familia de modelos abiertos ligeros y de última generación creados a partir de la misma investigación y tecnología que se usaron para crear los modelos de Gemini
Presentamos
Gemma 2
Gemma 2, rediseñado para ofrecer un rendimiento superior y una eficiencia inigualable, se optimiza para realizar inferencias ultrarrápidas en diversos hardware.
5 tomas
MMLU
La comparativa de MMLU es una prueba que mide la amplitud del conocimiento y la capacidad de resolución de problemas que adquieren los modelos grandes de lenguaje durante el entrenamiento previo.
25 fotos
ARC‐C
La comparativa de ARC-c es un subconjunto más enfocado del conjunto de datos de ARC-e, que contiene solo preguntas respondidas de forma incorrecta por algoritmos comunes (basados en la recuperación y la coocurrencia de palabras).
5 tomas
GSM8K
La comparativa GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos a nivel de la escuela primaria que, a menudo, requieren varios pasos de razonamiento.
3 a 5 tomas
AGIEval
La comparativa de AGIEval pone a prueba la inteligencia general de un modelo de lenguaje mediante preguntas derivadas de exámenes del mundo real diseñados para evaluar las capacidades intelectuales humanas.
3 tomas, CoT
BBH
La comparativa BBH (BIG-Bench Hard) se enfoca en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales y prueba sus límites en varios dominios de razonamiento y comprensión.
3 tomas, F1
DROP
DROP es una comparativa de comprensión lectora que requiere un razonamiento discreto en lugar de párrafos.
5 tomas
Winogrande
La comparativa de Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de completar el espacio en blanco con opciones binarias, lo que requiere un razonamiento generalizado de sentido común.
10 intentos
HellaSwag
La comparativa de HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico para una historia.
4 tomas
MATH
MATH evalúa la capacidad de un modelo de lenguaje para resolver problemas verbales matemáticos complejos, lo que requiere razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.
Sin ejemplos
ARC-e
La comparativa ARC-e prueba las habilidades avanzadas de respuesta a preguntas de un modelo de lenguaje con preguntas de ciencia de opción múltiple genuinas a nivel de la escuela primaria.
Sin ejemplos
PIQA
La comparativa PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico del sentido común respondiendo preguntas sobre las interacciones físicas cotidianas.
Sin ejemplos
SIQA
La comparativa SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social mediante preguntas sobre las acciones de las personas y sus implicaciones sociales.
Sin ejemplos
Boolq
La comparativa de BoolQ prueba la capacidad de un modelo de lenguaje para responder preguntas de sí o no que ocurren de forma natural, lo que prueba la capacidad de los modelos para realizar tareas de inferencia de lenguaje natural en el mundo real.
5 tomas
TriviaQA
La comparativa de TriviaQA prueba las habilidades de comprensión lectora con triples pregunta-respuesta-evidencia.
5 tomas
NQ
La comparativa de NQ (preguntas naturales) prueba la capacidad de un modelo de lenguaje para encontrar y comprender respuestas en artículos completos de Wikipedia, simulando situaciones de respuesta a preguntas del mundo real.
pass@1
HumanEval
La comparativa HumanEval prueba las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan las pruebas de unidades funcionales para problemas de programación.
3 tomas
MBPP
La comparativa de MBPP prueba la capacidad de un modelo de lenguaje para resolver problemas básicos de programación de Python, enfocándose en los conceptos fundamentales de programación y el uso de bibliotecas estándar.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7,000 millones
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27,000 millones
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8,000 millones
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7,000 millones
LLAMA 3
8,000 millones
Gemma 1
7,000 millones
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8,000 millones
Gemma 1
7,000 millones
Gemma 2
9,000 millones
Gemma 2
27,000 millones
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8,000 millones
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7,000 millones
Gemma 2
9,000 millones
Gemma 2
27,000 millones
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7,000 millones
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7,000 millones
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27,000 millones
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7B
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
Gemma 1
2,500 millones
Gemma 2
2,600 millones
Mistral
7,000 millones
Gemma 1
7B
Gemma 2
9,000 millones
Gemma 2
27B
*Estas son las comparativas de los modelos previamente entrenados. Consulta el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.
Familia de modelos de Gemma
Explora nuestras herramientas
Guías de inicio rápido para desarrolladores
Guías de inicio rápido para socios
Libro de soluciones de Gemma
Explora una colección de recetas y ejemplos prácticos que muestran el poder y la versatilidad de Gemma para tareas como la creación de leyendas de imágenes con PaliGemma, la generación de código con CodeGemma y la compilación de chatbots con modelos de Gemma ajustados.
Desarrollo de IA responsable
Responsabilidad desde el diseño
Se entrenan previamente con datos seleccionados cuidadosamente y se ajustan para priorizar la seguridad, lo que ayuda a potenciar el desarrollo de IA seguro y responsable basado en modelos de Gemma.
Evaluación sólida y transparente
Las evaluaciones integrales y los informes transparentes revelan las limitaciones del modelo para adoptar un enfoque responsable para cada caso de uso.
Impulsa el desarrollo responsable
El kit de herramientas de IA generativa responsable ayuda a los desarrolladores a diseñar e implementar las prácticas recomendadas de la IA responsable.
Optimizado para Google Cloud
Con los modelos de Gemma en Google Cloud, puedes personalizar en profundidad el modelo según tus necesidades específicas con las herramientas completamente administradas de Vertex AI o la opción autoadministrada de GKE y, luego, implementarlo en una infraestructura flexible, rentable y optimizada para la IA.
Aceleración de la investigación académica con créditos de Google Cloud
Recientemente, el programa de investigación académica concluyó su período de solicitud y otorgó créditos de Google Cloud para apoyar a los investigadores que superan los límites del descubrimiento científico con modelos de Gemma. Esperamos con ansias ver las investigaciones innovadoras que surgirán de esta iniciativa.
Únete a la comunidad
Conéctate, explora y comparte tus conocimientos con otros miembros de la comunidad de modelos de AA.