Les modèles Gemma 4 sont conçus pour offrir des performances de pointe à chaque taille, en ciblant les scénarios de déploiement allant des appareils mobiles et de périphérie (E2B, E4B) aux GPU grand public et aux stations de travail (26B A4B, 31B). Ils sont particulièrement adaptés au raisonnement, aux workflows agentiques, au codage et à la compréhension multimodale.
Gemma 4 est distribué sous licence Apache 2.0. Pour en savoir plus, consultez la fiche de modèle Gemma 4.
Premiers pas
Discutez avec Gemma4-E2B, hébergé sur la communauté Hugging Face LiteRT.
uv tool install litert-lm
litert-lm run \
--from-huggingface-repo=litert-community/gemma-4-E2B-it-litert-lm \
gemma-4-E2B-it.litertlm \
--prompt="What is the capital of France?"
Déployer à partir de Safetensors
Suivez ces étapes pour déployer Gemma 4 à partir de vos safetensors personnalisés (par exemple, après avoir affiné le modèle pour votre cas d'utilisation) :
Convertir au format
.litertlm:uv tool install litert-torch-nightly litert-torch export_hf \ --model=google/gemma-4-E2B-it \ --output_dir=/tmp/gemma4_2b \ --externalize_embedder \ --jinja_chat_template_override=litert-community/gemma-4-E2B-it-litert-lmDéployez à l'aide des API LiteRT-LM multiplates-formes :
litert-lm run \ /tmp/gemma4_2b/model.litertlm \ --prompt="What is the capital of France?"
Synthèse des performances
Gemma-4-E2B
- Taille du modèle : 2,58 Go
Pour en savoir plus sur les détails techniques, consultez la fiche de modèle HuggingFace.
Plate-forme (appareil) Backend Préremplissage (tk/s) Décodage (tk/s) Délai d'émission du premier jeton (en secondes) Pic de mémoire du processeur (Mo) Android (S26 Ultra) Processeur 557 47 1.8 1733 GPU 3808 52 0,3 676 iOS (iPhone 17 Pro) Processeur 532 25 1.9 607 GPU 2878 56 0,3 1450 Linux (Arm 2.3 et 2.8 GHz, NVIDIA GeForce RTX 4090) Processeur 260 35 4 1628 GPU 11234 143 0,1 913 macOS (MacBook Pro M4) Processeur 901 42 1.1 736 GPU 7835 160 0,1 1623 IoT (Raspberry Pi 5 16 Go) Processeur 133 8 7,8 1546
Gemma-4-E4B
- Taille du modèle : 3,65 Go
Pour en savoir plus sur les détails techniques, consultez la fiche de modèle HuggingFace.
Plate-forme (appareil) Backend Préremplissage (tk/s) Décodage (tk/s) Délai d'émission du premier jeton (en secondes) Pic de mémoire du processeur (Mo) Android (S26 Ultra) Processeur 195 18 5,3 3283 GPU 1293 22 0,8 710 iOS (iPhone 17 Pro) Processeur 159 10 6,5 961 GPU 1189 25 0,9 3380 Linux (Arm 2,3 GHz et 2,8 GHz / RTX 4090) Processeur 82 18 12.6 3139 GPU 7260 91 0,2 1119 macOS (MacBook Pro M4 Max) Processeur 277 27 3.7 890 GPU 2 560 101 0,4 3217 IoT (Raspberry Pi 5 16 Go) Processeur 51 3 20.5 3069