Die Gemma 4-Modelle bieten in jeder Größe eine Leistung auf dem neuesten Stand der Technik und sind für Bereitstellungsszenarien von Mobilgeräten und Edge-Geräten (E2B, E4B) bis hin zu GPUs und Workstations für Endnutzer (26B A4B, 31B) konzipiert. Sie eignen sich gut für Schlussfolgerungen, agentische Workflows, Programmierung und multimodales Verstehen.
Gemma 4 ist unter der Apache-2.0-Lizenz lizenziert. Weitere Informationen finden Sie auf der Modellkarte für Gemma 4.
🔴 Neu: Multi-Token Prediction
Multi-Token Prediction (MTP) ist eine neue Leistungsoptimierung, die die Decodierungsgeschwindigkeit in CPU- und GPU-Back-Ends erheblich beschleunigt, ohne die Qualität zu beeinträchtigen.
- Leistungssteigerungen:
- GPU:Enorme Beschleunigung mit bis zu 2, 2-facher Decodierungsgeschwindigkeit auf mobilen GPUs.
- CPU:Leistungssteigerungen mit bis zu 1,5-facher Beschleunigung auf mobilen CPUs und erhebliche Beschleunigung auf SME-fähiger Hardware (z. B. M4-MacBooks).
- Empfehlungen:MTP wird universell für alle Aufgaben in GPU-Back-Ends und für das Gemma4-E4B-Modell auf der CPU empfohlen. Für das Gemma4-E2B-Modell auf der CPU ist es für Aufgaben zum Umschreiben, Zusammenfassen und Programmieren sehr nützlich, sollte aber selektiv aktiviert werden, da es bei Freiform-Prompts oder generativen Aufgaben zu einer leichten Verlangsamung führen kann.
Informationen zum Ausprobieren finden Sie in den plattformspezifischen Anleitungen:
Jetzt starten
Chatten Sie mit Gemma4-E2B, das in der Hugging Face LiteRT-Community gehostet wird.
uv tool install litert-lm
litert-lm run \
--from-huggingface-repo=litert-community/gemma-4-E2B-it-litert-lm \
gemma-4-E2B-it.litertlm \
--prompt="What is the capital of France?"
Über Safetensors bereitstellen
Folgen Sie dieser Anleitung, um Gemma 4 über Ihre benutzerdefinierten Safetensors bereitzustellen (z. B. nachdem Sie das Modell für Ihren Anwendungsfall optimiert haben):
In das Format
.litertlmkonvertieren:uv tool install litert-torch-nightly litert-torch export_hf \ --model=google/gemma-4-E2B-it \ --output_dir=/tmp/gemma4_2b \ --externalize_embedder \ --jinja_chat_template_override=litert-community/gemma-4-E2B-it-litert-lmMit plattformübergreifenden LiteRT-LM-APIs bereitstellen:
litert-lm run \ /tmp/gemma4_2b/model.litertlm \ --prompt="What is the capital of France?"
Leistungsübersicht
Gemma-4-E2B
- Modellgröße: 2,58 GB
Weitere technische Details finden Sie auf der HuggingFace-Modellkarte.
Plattform (Gerät) Backend Prefill (tk/s) Decode (tk/s) Zeit bis zum ersten Token (Sekunden) Maximale CPU-Speicherauslastung (MB) Android (S26 Ultra) CPU 557 47 1,8 1733 GPU 3808 52 0,3 676 iOS (iPhone 17 Pro) CPU 532 25 1,9 607 GPU 2878 56 0,3 1450 Linux (Arm 2,3 und 2,8 GHz, NVIDIA GeForce RTX 4090) CPU 260 35 4 1628 GPU 11234 143 0,1 913 macOS (MacBook Pro M4) CPU 901 42 1,1 736 GPU 7835 160 0,1 1623 IoT (Raspberry Pi 5 16GB) CPU 133 8 7,8 1546
Gemma-4-E4B
- Modellgröße: 3,65 GB
Weitere technische Details finden Sie auf der HuggingFace-Modellkarte.
Plattform (Gerät) Backend Prefill (tk/s) Decode (tk/s) Zeit bis zum ersten Token (Sekunden) Maximale CPU-Speicherauslastung (MB) Android (S26 Ultra) CPU 195 18 5,3 3283 GPU 1293 22 0,8 710 iOS (iPhone 17 Pro) CPU 159 10 6,5 961 GPU 1189 25 0,9 3380 Linux (Arm 2,3 und 2,8 GHz / RTX 4090) CPU 82 18 12,6 3139 GPU 7260 91 0,2 1119 macOS (MacBook Pro M4 Max) CPU 277 27 3,7 890 GPU 2560 101 0,4 3217 IoT (Raspberry Pi 5 16GB) CPU 51 3 20,5 3069