# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
শুরু করতে এবং একটি সুন্দর ইন্টারফেসে মডেলটি চালাতে, আপনি নিম্নলিখিত কমান্ড দিয়ে একটি সার্ভার চালু করতে পারেন:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
এটি এমন একটি সার্ভার তৈরি করে যা আপনাকে একটি ইন্টারফেস ( http://localhost:8080 ) অথবা OpenAI-এন্ডপয়েন্ট ( http://localhost:8080/v1 ) থেকে আপনার মডেলটি অ্যাক্সেস করার সুযোগ দেয়।
জেমার সাথে llama.cpp কীভাবে ব্যবহার করবেন সে সম্পর্কে আরও তথ্য ও নির্দেশাবলীর জন্য অফিসিয়াল রিপোজিটরি দেখুন:
[[["সহজে বোঝা যায়","easyToUnderstand","thumb-up"],["আমার সমস্যার সমাধান হয়েছে","solvedMyProblem","thumb-up"],["অন্যান্য","otherUp","thumb-up"]],[["এতে আমার প্রয়োজনীয় তথ্য নেই","missingTheInformationINeed","thumb-down"],["খুব জটিল / অনেক ধাপ","tooComplicatedTooManySteps","thumb-down"],["পুরনো","outOfDate","thumb-down"],["অনুবাদ সংক্রান্ত সমস্যা","translationIssue","thumb-down"],["নমুনা / কোড সংক্রান্ত সমস্যা","samplesCodeIssue","thumb-down"],["অন্যান্য","otherDown","thumb-down"]],["2026-04-16 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[]]