Gemma 4 को रिलीज़ कर दिया गया है. इसमें टेक्स्ट, ऑडियो, और इमेज के ज़रिए इनपुट दिया जा सकता है. साथ ही, इसमें 2.56 लाख टोकन तक की लंबी कॉन्टेक्स्ट विंडो है! ज़्यादा जानें
# Download and run a model directly from Hugging Face
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF--prompt"Write a poem about the Kraken."# Use System Prompt
llama-cli-hfggml-org/gemma-4-E2B-it-GGUF-sys"You are Hong Gildong."-p"Who are you?"
मॉडल को शुरू करने और उसे बेहतर इंटरफ़ेस में चलाने के लिए, इस कमांड का इस्तेमाल करके सर्वर शुरू करें:
llama-server-hfggml-org/gemma-4-E2B-it-GGUF
इससे एक ऐसा सर्वर बनता है जिसकी मदद से, अपने मॉडल को इंटरफ़ेस (http://localhost:8080) या OpenAI-एंडपॉइंट (http://localhost:8080/v1) को ऐक्सेस करके ऐक्सेस किया जा सकता है.
Gemma के साथ llama.cpp इस्तेमाल करने के तरीके के बारे में ज़्यादा जानकारी और निर्देशों के लिए, आधिकारिक रिपॉज़िटरी देखें:
[[["समझने में आसान है","easyToUnderstand","thumb-up"],["मेरी समस्या हल हो गई","solvedMyProblem","thumb-up"],["अन्य","otherUp","thumb-up"]],[["वह जानकारी मौजूद नहीं है जो मुझे चाहिए","missingTheInformationINeed","thumb-down"],["बहुत मुश्किल है / बहुत सारे चरण हैं","tooComplicatedTooManySteps","thumb-down"],["पुराना","outOfDate","thumb-down"],["अनुवाद से जुड़ी समस्या","translationIssue","thumb-down"],["सैंपल / कोड से जुड़ी समस्या","samplesCodeIssue","thumb-down"],["अन्य","otherDown","thumb-down"]],["आखिरी बार 2026-04-17 (UTC) को अपडेट किया गया."],[],[]]