# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
멋진 인터페이스에서 모델을 시작하고 실행하려면 다음을 사용하여 서버를 시작하면 됩니다.
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
이렇게 하면 인터페이스(http://localhost:8080)에서 또는 OpenAI 엔드포인트(http://localhost:8080/v1)에 액세스하여 모델에 액세스할 수 있는 서버가 생성됩니다.
Gemma와 함께 llama.cpp를 사용하는 방법에 관한 자세한 내용과 안내는 공식 저장소를 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2026-04-17(UTC)"],[],[]]