# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Para começar e executar o modelo em uma interface agradável, inicie um servidor com:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Isso cria um servidor que permite acessar o modelo de uma interface
(http://localhost:8080) ou acessando o endpoint da OpenAI
(http://localhost:8080/v1).
Para mais informações e instruções sobre como usar llama.cpp com o Gemma,
consulte o repositório oficial:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2026-04-17 UTC."],[],[]]