# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
Aby rozpocząć i uruchomić model w przyjaznym interfejsie, możesz uruchomić serwer za pomocą tego polecenia:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
Spowoduje to utworzenie serwera, który umożliwi Ci dostęp do modelu za pomocą interfejsu (http://localhost:8080) lub punktu końcowego OpenAI (http://localhost:8080/v1).
Więcej informacji i instrukcje korzystania z llama.cpp w przypadku Gemy znajdziesz w oficjalnym repozytorium:
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2026-04-17 UTC."],[],[]]