# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
برای شروع و اجرای مدل در یک رابط کاربری خوب، میتوانید یک سرور را با موارد زیر راهاندازی کنید:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
این یک سرور ایجاد میکند که به شما امکان میدهد از طریق یک رابط ( http://localhost:8080 ) یا با دسترسی به OpenAI-endpoint ( http://localhost:8080/v1 ) به مدل خود دسترسی داشته باشید.
برای اطلاعات بیشتر و دستورالعملهای مربوط به نحوه استفاده از llama.cpp با Gemma، به مخزن رسمی مراجعه کنید:
تاریخ آخرین بهروزرسانی 2026-04-16 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2026-04-16 بهوقت ساعت هماهنگ جهانی."],[],[]]