Modelos de Gemma Open
Una familia de modelos abiertos, ligeros y de vanguardia, construidos a partir de la misma investigación y tecnología utilizada para crear los modelos Gemini.
Diseño responsable
Estos modelos incorporan medidas de seguridad integrales que garantizan soluciones de IA responsables y confiables a través de conjuntos de datos seleccionados y ajustes rigurosos.
Rendimiento inigualable en relación con el tamaño
Los modelos de Gemma logran resultados comparativos excepcionales en sus tamaños 2B y 7B, incluso superan a algunos modelos abiertos más grandes.
Framework flexible
Con Keras 3.0, disfruta de una compatibilidad sin interrupciones con JAX, TensorFlow y PyTorch, lo que te da la posibilidad de elegir y cambiar frameworks sin esfuerzo según tu tarea.
Variantes del modelo de Gemma
Guías de inicio rápido para desarrolladores
Guías de inicio rápido para socios
Pronto habrá más guías para socios
Comparativas
Gemma establece un nuevo estándar de rendimiento de vanguardia en cuanto al tamaño en comparación con modelos populares como Llama 2 y Mistral 7B.
5 disparos, 1 superior
MMLU
Las comparativas de MMLU son pruebas que miden la amplitud del conocimiento y la capacidad de resolución de problemas adquiridos por los modelos grandes de lenguaje durante el entrenamiento previo.
0 ejemplos
HellaSwag
La comparativa HellaSwag desafía la capacidad de un modelo de lenguaje para comprender y aplicar el razonamiento de sentido común seleccionando el final más lógico de una historia.
0 ejemplos
PIQA
La comparativa de PIQA prueba la capacidad de un modelo de lenguaje para comprender y aplicar el conocimiento físico de sentido común respondiendo preguntas sobre las interacciones físicas cotidianas.
0 ejemplos
SIQA
La comparativa SIQA evalúa la comprensión de un modelo de lenguaje de las interacciones sociales y el sentido común social haciendo preguntas sobre las acciones de las personas y sus implicaciones sociales.
0 ejemplos
Boolq
La comparativa BoolQ prueba la capacidad de un modelo de lenguaje para responder de forma natural (generadas en entornos no sugeridos y sin limitaciones) a preguntas del tipo sí/no, y prueba la capacidad de los modelos de realizar tareas de inferencia de lenguaje natural del mundo real.
puntuación parcial
Winogrande
La comparativa Winogrande prueba la capacidad de un modelo de lenguaje para resolver tareas ambiguas de espacios en blanco con opciones binarias, que requieren un razonamiento de sentido común generalizado.
7 disparos
CQA
La comparativa de CQA evalúa el rendimiento de los modelos de lenguaje en respuestas de preguntas de opción múltiple, lo que requiere diferentes tipos de conocimiento de sentido común.
OBQA
La comparativa OBQA evalúa la capacidad de un modelo de lenguaje para realizar respuestas avanzadas de preguntas con razonamiento de varios pasos, conocimiento del sentido común y comprensión de texto enriquecido, modelada a partir de exámenes de libros abiertos.
ARC-e
Las comparativas de ARC-e ponen a prueba las habilidades avanzadas de respuesta de preguntas de un modelo de lenguaje con preguntas científicas de opción múltiple a nivel de la escuela primaria.
ARC-c
Las comparativas de ARC-c son un subconjunto más específico del conjunto de datos de ARC-e, que solo contiene preguntas respondidas incorrectamente por algoritmos comunes (de recuperación y coincidencia de palabras).
5 disparos
TriviaQA
La comparativa de TriviaQA pone a prueba las habilidades de comprensión lectora con triples de preguntas, respuestas y evidencias.
pase@1
HumanEval
Las comparativas de HumanEval evalúan las capacidades de generación de código de un modelo de lenguaje evaluando si sus soluciones pasan pruebas de unidades funcionales para problemas de programación.
3 disparos
MBPP
Las comparativas de MBPP prueban la capacidad de un modelo de lenguaje para resolver problemas básicos de programación de Python y se enfocan en los conceptos fundamentales de la programación y el uso de la biblioteca estándar.
maya@1
GSM8K
El benchmark de GSM8K prueba la capacidad de un modelo de lenguaje para resolver problemas matemáticos de nivel escolar que con frecuencia requieren múltiples pasos de razonamiento.
4 disparos
MATH
Las comparativas matemáticas evalúan la capacidad de un modelo de lenguaje para resolver problemas matemáticos complejos, que requieren razonamiento, resolución de problemas de varios pasos y comprensión de conceptos matemáticos.
AGIEval
Las comparativas de AGIEval ponen a prueba la inteligencia general de un modelo de lenguaje mediante preguntas derivadas de exámenes del mundo real diseñados para evaluar las capacidades intelectuales humanas (exámenes de ingreso universitario, exámenes de derecho, etc.).
BBH
La comparativa de BBH (BIG-Bench Hard) se centra en tareas que se consideran más allá de las capacidades de los modelos de lenguaje actuales, probando sus límites en varios dominios de razonamiento y comprensión.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
Gemma
7b
Gemma
2,000 millones
Mistral
7b
LLAMA-2
13b
LLAMA-2
7b
*Consulte el informe técnico para obtener detalles sobre el rendimiento con otras metodologías.
Accede a Gemma hoy mismo
Los modelos de Gemma están disponibles en todos tus concentradores de modelos favoritos.
Desarrollo de la IA responsable
Responsabilidad desde el diseño
Previamente entrenados con datos seleccionados cuidadosamente y ajustados para ofrecer seguridad, lo que ayuda a potenciar el desarrollo de IA responsable y seguro basado en modelos de Gemma.
Evaluación sólida y transparente
Las evaluaciones integrales y los informes transparentes revelan las limitaciones del modelo para adoptar un enfoque responsable para cada caso de uso.
Impulsamos el desarrollo responsable
El kit de herramientas para la IA generativa responsable asiste a los desarrolladores en el diseño y la implementación de las prácticas recomendadas de la IA responsable.
Optimizado para Google Cloud
Con los modelos de Gemma en Google Cloud, puedes personalizar completamente el modelo según tus necesidades específicas con las herramientas completamente administradas de Vertex AI o la opción autoadministrada de GKE y, luego, implementarlo en una infraestructura flexible y rentable optimizada para IA.
Aceleración de la investigación académica con créditos de Google Cloud
El Programa de investigación académica concluyó hace poco su período de postulación, con lo que se otorgaron créditos de Google Cloud para apoyar a los investigadores que desafían los límites del descubrimiento científico con modelos Gemma. Nos entusiasma ver la investigación innovadora que resulta de esta iniciativa.
Unirse a la comunidad
Conéctate, explora y comparte tus conocimientos con otros en la comunidad de modelos de AA.
Compite por crear el mejor asistente de IA para ingenieros de AA
Kaggle organiza una competencia que desafía a los participantes a usar modelos de Gemma para crear los mejores asistentes de IA para tareas de ingeniería de AA. Los ganadores se anunciarán en Google I/O.
Únete a la competencia