Gemma 4 wurde veröffentlicht und unterstützt Text-, Audio- und Bildeingaben sowie ein langes Kontextfenster mit bis zu 256.000 Tokens. Weitere Informationen
# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Um das Modell in einer ansprechenden Benutzeroberfläche auszuführen, können Sie einen Server mit folgendem Befehl starten:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Dadurch wird ein Server erstellt, über den Sie entweder über eine Schnittstelle (http://localhost:8080) oder über den OpenAI-Endpunkt (http://localhost:8080/v1) auf Ihr Modell zugreifen können.
Weitere Informationen und eine Anleitung zur Verwendung von llama.cpp mit Gemma finden Sie im offiziellen Repository:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2026-04-17 (UTC)."],[],[]]