Gemma 4

Los modelos de Gemma 4 están diseñados para ofrecer un rendimiento de nivel superior en cada tamaño, con el objetivo de situaciones de implementación desde dispositivos móviles y perimetrales (E2B, E4B) hasta GPU y estaciones de trabajo para consumidores (26B A4B, 31B). Son adecuados para el razonamiento, los flujos de trabajo de agentes, la codificación y la comprensión multimodal.

Gemma 4 se otorga bajo la licencia Apache-2.0. Para obtener más detalles, consulta la tarjeta del modelo de Gemma 4.

🔴 Novedades: Predicción de varios tokens

La predicción de varios tokens (MTP) es una nueva optimización del rendimiento que acelera significativamente las velocidades de decodificación en los backends de CPU y GPU sin degradación de la calidad.

  • Aumentos de rendimiento:
    • GPU: Aceleración masiva, que ofrece hasta 2.2 veces más velocidad de decodificación en GPU para dispositivos móviles.
    • CPU: Aumentos de rendimiento de hasta 1.5 veces más velocidad en CPU para dispositivos móviles y una aceleración significativa en hardware habilitado para SME (p.ej., MacBook M4).
  • Recomendaciones: Se recomienda MTP de forma universal para todas las tareas en backends de GPU y para el modelo Gemma4-E4B en CPU. Para el modelo Gemma4-E2B en CPU, es muy valioso para las tareas de reescritura, resumen y codificación, pero se debe habilitar de forma selectiva, ya que puede causar una ligera ralentización durante las tareas de generación o de solicitud de forma libre.

Para probarlo, consulta las guías específicas de la plataforma:

Comenzar

Chatea con Gemma4-E2B, alojado en la comunidad de Hugging Face LiteRT.

uv tool install litert-lm

litert-lm run  \
  --from-huggingface-repo=litert-community/gemma-4-E2B-it-litert-lm \
  gemma-4-E2B-it.litertlm \
  --prompt="What is the capital of France?"

Implementa desde Safetensors

Sigue estos pasos para implementar Gemma 4 a partir de tus safetensors personalizados (por ejemplo, después de ajustar el modelo para tu caso de uso):

  • Convierte a un formato .litertlm:

    uv tool install litert-torch-nightly
    
    litert-torch export_hf \
      --model=google/gemma-4-E2B-it \
      --output_dir=/tmp/gemma4_2b \
      --externalize_embedder \
      --jinja_chat_template_override=litert-community/gemma-4-E2B-it-litert-lm
    
  • Implementa con las APIs multiplataforma de LiteRT-LM:

    litert-lm run  \
      /tmp/gemma4_2b/model.litertlm \
      --prompt="What is the capital of France?"
    

Resumen de rendimiento

Gemma-4-E2B

  • Tamaño del modelo: 2.58 GB
  • Encontrarás detalles técnicos adicionales en la tarjeta del modelo de HuggingFace.

    Plataforma (dispositivo) Backend Prefill (tk/s) Decode (tk/s) Tiempo hasta el primer token (segundos) Memoria máxima de la CPU (MB)
    Android (S26 Ultra) CPU 557 47 1.8 1989
    GPU 3808 52 0.3 676
    iOS (iPhone 17 Pro) CPU 532 25 1.9 607
    GPU 2878 56 0.3 1450
    Linux (Arm 2.3 y 2.8 GHz, NVIDIA GeForce RTX 4090) CPU 260 35 4 1628
    GPU 11234 143 0.1 913
    macOS (MacBook Pro M4) CPU 901 42 1.1 736
    GPU 7835 160 0.1 1623
    IoT (Raspberry Pi 5 16GB) CPU 133 8 7.8 1546

Gemma-4-E4B

  • Tamaño del modelo: 3.65 GB
  • Encontrarás detalles técnicos adicionales en la tarjeta del modelo de HuggingFace.

    Plataforma (dispositivo) Backend Prefill (tk/s) Decode (tk/s) Tiempo hasta el primer token (segundos) Memoria máxima de la CPU (MB)
    Android (S26 Ultra) CPU 195 18 5.3 3283
    GPU 1293 22 0.8 710
    iOS (iPhone 17 Pro) CPU 159 10 6.5 961
    GPU 1189 25 0.9 3380
    Linux (Arm 2.3 y 2.8 GHz / RTX 4090) CPU 82 18 12.6 3139
    GPU 7260 91 0.2 1119
    macOS (MacBook Pro M4 Max) CPU 277 27 3.7 890
    GPU 2560 101 0.4 3217
    IoT (Raspberry Pi 5 16GB) CPU 51 3 20.5 3069