# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Для начала работы и запуска модели в удобном интерфейсе вы можете запустить сервер с помощью следующей команды:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Это создаст сервер, который позволит вам получить доступ к вашей модели либо через интерфейс ( http://localhost:8080 ), либо через конечную точку OpenAI ( http://localhost:8080/v1 ).
Для получения дополнительной информации и инструкций по использованию llama.cpp с Gemma обратитесь к официальному репозиторию:
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2026-04-16 UTC."],[],[]]