# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
لبدء تشغيل النموذج في واجهة سهلة الاستخدام، يمكنك بدء تشغيل خادم باستخدام:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
يؤدي ذلك إلى إنشاء خادم يتيح لك الوصول إلى النموذج إما من خلال واجهة (http://localhost:8080) أو من خلال الوصول إلى نقطة نهاية OpenAI (http://localhost:8080/v1).
لمزيد من المعلومات والتعليمات حول كيفية استخدام llama.cpp مع Gemma، يُرجى الرجوع إلى المستودع الرسمي:
تاريخ التعديل الأخير: 2026-04-17 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2026-04-17 (حسب التوقيت العالمي المتفَّق عليه)"],[],[]]