# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Per iniziare ed eseguire il modello in un'interfaccia semplice, puoi avviare un server con:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Viene creato un server che ti consente di accedere al modello da un'interfaccia
(http://localhost:8080) o accedendo all'endpoint OpenAI
(http://localhost:8080/v1).
Per ulteriori informazioni e istruzioni su come utilizzare llama.cpp con Gemma, consulta il repository ufficiale:
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2026-04-17 UTC."],[],[]]