# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Për të filluar dhe për të ekzekutuar modelin në një ndërfaqe të këndshme, mund të filloni një server me:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Kjo krijon një server që ju lejon të hyni në modelin tuaj ose nga një ndërfaqe ( http://localhost:8080 ) ose duke hyrë në pikën fundore OpenAI ( http://localhost:8080/v1 ).
Për më shumë informacion dhe udhëzime se si të përdorni llama.cpp me Gemma, referojuni depos zyrtare:
[[["E lehtë për t'u kuptuar","easyToUnderstand","thumb-up"],["E zgjidhi problemin tim","solvedMyProblem","thumb-up"],["Tjetër","otherUp","thumb-up"]],[["Mungojnë informacionet që më nevojiten","missingTheInformationINeed","thumb-down"],["Shumë e ndërlikuar/shumë hapa","tooComplicatedTooManySteps","thumb-down"],["E papërditësuar","outOfDate","thumb-down"],["Problem përkthimi","translationIssue","thumb-down"],["Problem me kampionët/kodin","samplesCodeIssue","thumb-down"],["Tjetër","otherDown","thumb-down"]],["Përditësimi i fundit: 2026-04-16 UTC."],[],[]]