Gemma 4

Die Gemma 4-Modelle bieten in jeder Größe eine Leistung auf dem neuesten Stand der Technik und sind für Bereitstellungsszenarien von Mobilgeräten und Edge-Geräten (E2B, E4B) bis hin zu GPUs und Workstations für Endnutzer (26B A4B, 31B) konzipiert. Sie eignen sich gut für Schlussfolgerungen, agentische Workflows, Programmierung und multimodales Verstehen.

Gemma 4 ist unter der Apache-2.0-Lizenz lizenziert. Weitere Informationen finden Sie auf der Modellkarte für Gemma 4.

🔴 Neu: Multi-Token Prediction

Multi-Token Prediction (MTP) ist eine neue Leistungsoptimierung, die die Decodierungsgeschwindigkeit in CPU- und GPU-Back-Ends erheblich beschleunigt, ohne die Qualität zu beeinträchtigen.

  • Leistungssteigerungen:
    • GPU:Enorme Beschleunigung mit bis zu 2, 2-facher Decodierungsgeschwindigkeit auf mobilen GPUs.
    • CPU:Leistungssteigerungen mit bis zu 1,5-facher Beschleunigung auf mobilen CPUs und erhebliche Beschleunigung auf SME-fähiger Hardware (z. B. M4-MacBooks).
  • Empfehlungen:MTP wird universell für alle Aufgaben in GPU-Back-Ends und für das Gemma4-E4B-Modell auf der CPU empfohlen. Für das Gemma4-E2B-Modell auf der CPU ist es für Aufgaben zum Umschreiben, Zusammenfassen und Programmieren sehr nützlich, sollte aber selektiv aktiviert werden, da es bei Freiform-Prompts oder generativen Aufgaben zu einer leichten Verlangsamung führen kann.

Informationen zum Ausprobieren finden Sie in den plattformspezifischen Anleitungen:

Jetzt starten

Chatten Sie mit Gemma4-E2B, das in der Hugging Face LiteRT-Community gehostet wird.

uv tool install litert-lm

litert-lm run  \
  --from-huggingface-repo=litert-community/gemma-4-E2B-it-litert-lm \
  gemma-4-E2B-it.litertlm \
  --prompt="What is the capital of France?"

Über Safetensors bereitstellen

Folgen Sie dieser Anleitung, um Gemma 4 über Ihre benutzerdefinierten Safetensors bereitzustellen (z. B. nachdem Sie das Modell für Ihren Anwendungsfall optimiert haben):

  • In das Format .litertlm konvertieren:

    uv tool install litert-torch-nightly
    
    litert-torch export_hf \
      --model=google/gemma-4-E2B-it \
      --output_dir=/tmp/gemma4_2b \
      --externalize_embedder \
      --jinja_chat_template_override=litert-community/gemma-4-E2B-it-litert-lm
    
  • Mit plattformübergreifenden LiteRT-LM-APIs bereitstellen:

    litert-lm run  \
      /tmp/gemma4_2b/model.litertlm \
      --prompt="What is the capital of France?"
    

Leistungsübersicht

Gemma-4-E2B

  • Modellgröße: 2,58 GB
  • Weitere technische Details finden Sie auf der HuggingFace-Modellkarte.

    Plattform (Gerät) Backend Prefill (tk/s) Decode (tk/s) Zeit bis zum ersten Token (Sekunden) Maximale CPU-Speicherauslastung (MB)
    Android (S26 Ultra) CPU 557 47 1,8 1733
    GPU 3808 52 0,3 676
    iOS (iPhone 17 Pro) CPU 532 25 1,9 607
    GPU 2878 56 0,3 1450
    Linux (Arm 2,3 und 2,8 GHz, NVIDIA GeForce RTX 4090) CPU 260 35 4 1628
    GPU 11234 143 0,1 913
    macOS (MacBook Pro M4) CPU 901 42 1,1 736
    GPU 7835 160 0,1 1623
    IoT (Raspberry Pi 5 16GB) CPU 133 8 7,8 1546

Gemma-4-E4B

  • Modellgröße: 3,65 GB
  • Weitere technische Details finden Sie auf der HuggingFace-Modellkarte.

    Plattform (Gerät) Backend Prefill (tk/s) Decode (tk/s) Zeit bis zum ersten Token (Sekunden) Maximale CPU-Speicherauslastung (MB)
    Android (S26 Ultra) CPU 195 18 5,3 3283
    GPU 1293 22 0,8 710
    iOS (iPhone 17 Pro) CPU 159 10 6,5 961
    GPU 1189 25 0,9 3380
    Linux (Arm 2,3 und 2,8 GHz / RTX 4090) CPU 82 18 12,6 3139
    GPU 7260 91 0,2 1119
    macOS (MacBook Pro M4 Max) CPU 277 27 3,7 890
    GPU 2560 101 0,4 3217
    IoT (Raspberry Pi 5 16GB) CPU 51 3 20,5 3069