LiteRT-LM के बारे में खास जानकारी

LiteRT-LM, प्रोडक्शन के लिए तैयार एक ओपन-सोर्स इन्फ़रेंस फ़्रेमवर्क है. इसे एज डिवाइसों पर, एलएलएम को क्रॉस-प्लैटफ़ॉर्म पर डिप्लॉय करने के लिए डिज़ाइन किया गया है. यह फ़्रेमवर्क, बेहतरीन परफ़ॉर्मेंस देता है.

  • क्रॉस-प्लैटफ़ॉर्म पर काम करने की सुविधा: इसे Android, iOS, वेब, डेस्कटॉप, और IoT (जैसे, Raspberry Pi) पर चलाया जा सकता है.
  • हार्डवेयर ऐक्सेलरेशन: अलग-अलग हार्डवेयर में, जीपीयू और एनपीयू ऐक्सेलरेटर का इस्तेमाल करके, बेहतरीन परफ़ॉर्मेंस और सिस्टम की स्थिरता पाएं.
  • मल्टी-मॉडलिटी: ऐसे एलएलएम का इस्तेमाल करके बनाएं जिनमें विज़न और ऑडियो की सुविधा हो.
  • टूल का इस्तेमाल: एजेंटिक वर्कफ़्लो के लिए, फ़ंक्शन कॉलिंग की सुविधा उपलब्ध है. साथ ही, बेहतर सटीक नतीजे पाने के लिए, डिकोडिंग को सीमित किया जा सकता है.
  • कई मॉडल के साथ काम करने की सुविधा: Gemma, Llama, Phi-4, Qwen वगैरह को चलाया जा सकता है.

डिवाइस पर जेन एआई की सुविधा दिखाने वाला गैलरी ऐप्लिकेशन

Google AI Edge Gallery का स्क्रीनशॉट

Google AI Edge Gallery, एक ऐसा ऐप्लिकेशन है जो प्रयोग के तौर पर बनाया गया है. इसे डिवाइस पर जेनरेटिव एआई की सुविधाओं को दिखाने के लिए डिज़ाइन किया गया है. यह ऐप्लिकेशन, LiteRT-LM का इस्तेमाल करके पूरी तरह से ऑफ़लाइन काम करता है.

  • मॉडल का साइज़: 2.58 जीबी
  • ज़्यादा तकनीकी जानकारी, HuggingFace के मॉडल कार्ड में दी गई है

    प्लैटफ़ॉर्म (डिवाइस) बैकएंड पहले से जानकारी भरने की सुविधा (टोकन/सेकंड) डिकोड करने की सुविधा (टोकन/सेकंड) पहला टोकन जनरेट होने में लगने वाला समय (सेकंड) सीपीयू की पीक मेमोरी (एमबी)
    Android (S26 Ultra) सीपीयू 557 47 1.8 1733
    जीपीयू 3808 52 0.3 676
    iOS (iPhone 17 Pro) सीपीयू 532 25 1.9 607
    जीपीयू 2878 56 0.3 1450
    Linux (Arm 2.3 और 2.8 GHz, NVIDIA GeForce RTX 4090) सीपीयू 260 35 4 1628
    जीपीयू 11234 143 0.1 913
    macOS (MacBook Pro M4) सीपीयू 901 42 1.1 736
    जीपीयू 7835 160 0.1 1623
    IoT (Raspberry Pi 5 16GB) सीपीयू 133 8 7.8 1546

बनाना शुरू करें

यहां दिए गए स्निपेट में, LiteRT-LM सीएलआई के साथ-साथ Python, Kotlin, और C++ एपीआई का इस्तेमाल शुरू करने का तरीका बताया गया है.

CLI

litert-lm run model.litertlm --prompt="What is the capital of France?"

Python

engine = litert_lm.Engine("model.litertlm")

with engine.create_conversation() as conversation:
    response = conversation.send_message("What is the capital of France?")
    print(f"Response: {response['content'][0]['text']}")

Kotlin

val engineConfig = EngineConfig(
    modelPath = "/path/to/your/model.litertlm",
    backend = Backend.CPU(),
)

val engine = Engine(engineConfig)
engine.initialize()

val conversation = engine.createConversation()
print(conversation.sendMessage("What is the capital of France?"))  

C++

auto model_assets = ModelAssets::Create(model_path);
CHECK_OK(model_assets);

auto engine_settings = EngineSettings::CreateDefault(
    model_assets,
    /*backend=*/litert::lm::Backend::CPU);

absl::StatusOr<std::unique_ptr<Engine>> engine = Engine::CreateEngine(engine_settings);
CHECK_OK(engine);

auto conversation_config = ConversationConfig::CreateDefault(**engine);
CHECK_OK(conversation_config);
absl::StatusOr<std::unique_ptr<Conversation>> conversation = Conversation::Create(**engine, *conversation_config);
CHECK_OK(conversation);

absl::StatusOr<Message> model_message = (*conversation)->SendMessage(
    JsonMessage{
        {"role", "user"},
        {"content", "What is the capital of France?"}
    });
CHECK_OK(model_message);

std::cout << *model_message << std::endl;
भाषा स्थिति इनके लिए बेहतर है... दस्तावेज़
CLI 🚀सार्वजनिक तौर पर उपलब्ध होने से पहले वाला वर्शन
एक मिनट से भी कम समय में, LiteRT-LM का इस्तेमाल शुरू करें. सीएलआई गाइड
Python
स्टेबल
रैपिड प्रोटोटाइपिंग, डेवलपमेंट, डेस्कटॉप और Raspberry Pi पर. Python गाइड
Kotlin
स्टेबल
Android के लिए खास ऐप्लिकेशन और JVM पर आधारित डेस्कटॉप टूल. कोरूटीन के लिए ऑप्टिमाइज़ किया गया है. Android (Kotlin) गाइड
C++
स्टेबल
बेहतरीन परफ़ॉर्मेंस, क्रॉस-प्लैटफ़ॉर्म कोर लॉजिक, और एम्बेड किए गए सिस्टम. C++ गाइड
Swift 🚀डेवलपमेंट के दौरान
iOS और macOS के साथ इंटिग्रेशन. साथ ही, Metal के लिए खास सहायता. जल्द आ रहा है

काम करने वाले बैकएंड और प्लैटफ़ॉर्म

त्वरण (एक्सेलेरेशन) Android iOS macOS Windows Linux IoT
सीपीयू
जीपीयू -
एनपीयू - - - - -

काम करने वाले मॉडल

यहां दी गई टेबल में, LiteRT-LM के साथ काम करने वाले मॉडल की सूची दी गई है. परफ़ॉर्मेंस के बारे में ज़्यादा जानकारी और मॉडल कार्ड देखने के लिए, Hugging Face पर LiteRT कम्यूनिटी पर जाएं.

मॉडल टाइप साइज़ (एमबी) जानकारी डिवाइस सीपीयू की मदद से पहले से जानकारी भरने की सुविधा (टोकन/सेकंड) सीपीयू की मदद से डिकोड करने की सुविधा (टोकन/सेकंड) जीपीयू की मदद से पहले से जानकारी भरने की सुविधा (टोकन/सेकंड) जीपीयू की मदद से डिकोड करने की सुविधा (टोकन/सेकंड)
Gemma4-E2B Chat 2583 मॉडल कार्ड Samsung S26 Ultra 557 47 3808 52
iPhone 17 Pro 532 25 2878 57
MacBook Pro M4 901 42 7835 160
Gemma4-E4B Chat 3654 मॉडल कार्ड Samsung S26 Ultra 195 18 1293 22
iPhone 17 Pro 159 10 1189 25
MacBook Pro M4 277 27 2560 101
Gemma-3n-E2B Chat 2965 मॉडल कार्ड MacBook Pro M3 233 28 - -
Samsung S24 Ultra 111 16 816 16
Gemma-3n-E4B Chat 4235 मॉडल कार्ड MacBook Pro M3 170 20 - -
Samsung S24 Ultra 74 9 548 9
Gemma3-1B Chat 1005 मॉडल कार्ड Samsung S24 Ultra 177 33 1191 24
FunctionGemma बेस 289 मॉडल कार्ड Samsung S25 Ultra 2238 154 - -
phi-4-mini Chat 3906 मॉडल कार्ड Samsung S24 Ultra 67 7 314 10
Qwen2.5-1.5B Chat 1598 मॉडल कार्ड Samsung S25 Ultra 298 34 1668 31
Qwen3-0.6B Chat 586 मॉडल कार्ड Vivo X300 Pro 165 9 580 21
Qwen2.5-0.5B Chat 521 मॉडल कार्ड Samsung S24 Ultra 251 30 - -

समस्याओं की रिपोर्ट करना

अगर आपको कोई गड़बड़ी मिलती है या किसी सुविधा के लिए अनुरोध करना है, तो LiteRT-LM GitHub पर जाकर, समस्याओं की रिपोर्ट करें.