# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
כדי להתחיל ולהריץ את המודל בממשק נוח, אפשר להפעיל שרת באמצעות הפקודה:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
כך נוצר שרת שמאפשר לכם לגשת למודל דרך ממשק (http://localhost:8080) או דרך נקודת הקצה של OpenAI (http://localhost:8080/v1).
מידע נוסף והוראות לשימוש ב-llama.cpp עם Gemma זמינים במאגר הרשמי:
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2026-04-17 (שעון UTC)."],[],[]]