# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Başlamak ve modeli güzel bir arayüzde çalıştırmak için şu komutla bir sunucu başlatabilirsiniz:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Bu işlem, modelinize bir arayüzden (http://localhost:8080) veya OpenAI uç noktasına (http://localhost:8080/v1) erişerek ulaşmanızı sağlayan bir sunucu oluşturur.
Gemma ile llama.cpp'yı kullanma hakkında daha fazla bilgi ve talimat için resmi depoya bakın:
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2026-04-17 UTC."],[],[]]