LiteRT-LM'ye Genel Bakış

LiteRT-LM, uç cihazlarda yüksek performanslı ve platformlar arası LLM dağıtımları sunmak için tasarlanmış, üretime hazır ve açık kaynaklı bir çıkarım çerçevesidir.

  • Platformlar Arası Destek: Android, iOS, Web, masaüstü ve IoT'de (ör. Raspberry Pi) çalışır.
  • Donanım Hızlandırma: Çeşitli donanımlarda GPU ve NPU hızlandırıcılarından yararlanarak en yüksek performansı ve sistem kararlılığını elde edin.
  • Çok formatlılık: Görüntü ve ses desteği olan LLM'lerle geliştirme yapın.
  • Araç Kullanımı: Gelişmiş doğruluk için kısıtlanmış kod çözme ile ajan tabanlı iş akışlarında işlev çağrısı desteği.
  • Geniş Model Desteği: Gemma, Llama, Phi-4, Qwen ve daha fazlasını çalıştırın.

Cihaz Üzerinde Üretken Yapay Zeka Gösterimi

Google AI Edge Gallery ekran görüntüsü

Google AI Edge Galerisi, LiteRT-LM kullanılarak tamamen çevrimdışı çalışan cihaz üzerinde üretken yapay zeka özelliklerini sergilemek için tasarlanmış deneysel bir uygulamadır.

  • Google Play: Desteklenen Android cihazlarda LLM'leri yerel olarak kullanın.
  • App Store: iOS cihazınızda cihaz üzerinde yapay zeka deneyimini yaşayın.
  • GitHub Kaynağı: LiteRT-LM'yi kendi projelerinize nasıl entegre edeceğinizi öğrenmek için galeri uygulamasının kaynak kodunu görüntüleyin.
  • Model Boyutu: 2,58 GB
  • Diğer teknik ayrıntılar için HuggingFace model kartına bakın.

    Platform (Cihaz) Arka uç Önceden doldurma (tk/s) Kod çözme (tk/sn) İlk jetona kadar geçen süre (saniye) En Yüksek CPU Belleği (MB)
    Android (S26 Ultra) CPU 557 47 1,8 1733
    GPU 3808 52 0,3 676
    iOS (iPhone 17 Pro) CPU 532 25 1.9 607
    GPU 2878 56 0,3 1450
    Linux (Arm 2,3 ve 2,8 GHz, NVIDIA GeForce RTX 4090) CPU 260 35 4 1628
    GPU 11234 143 0,1 913
    macOS (MacBook Pro M4) CPU 901 42 1.1 736
    GPU 7835 160 0,1 1623
    IoT (Raspberry Pi 5 16GB) CPU 133 8 7.8 1546

Derlemeye Başlama

Aşağıdaki snippet'lerde LiteRT-LM CLI'yi kullanmaya başlama ve Python, Kotlin ve C++ API'leri hakkında bilgiler yer almaktadır.

KSA

litert-lm run model.litertlm --prompt="What is the capital of France?"

Python

engine = litert_lm.Engine("model.litertlm")

with engine.create_conversation() as conversation:
    response = conversation.send_message("What is the capital of France?")
    print(f"Response: {response['content'][0]['text']}")

Kotlin

val engineConfig = EngineConfig(
    modelPath = "/path/to/your/model.litertlm",
    backend = Backend.CPU(),
)

val engine = Engine(engineConfig)
engine.initialize()

val conversation = engine.createConversation()
print(conversation.sendMessage("What is the capital of France?"))  

C++

auto model_assets = ModelAssets::Create(model_path);
CHECK_OK(model_assets);

auto engine_settings = EngineSettings::CreateDefault(
    model_assets,
    /*backend=*/litert::lm::Backend::CPU);

absl::StatusOr<std::unique_ptr<Engine>> engine = Engine::CreateEngine(engine_settings);
CHECK_OK(engine);

auto conversation_config = ConversationConfig::CreateDefault(**engine);
CHECK_OK(conversation_config);
absl::StatusOr<std::unique_ptr<Conversation>> conversation = Conversation::Create(**engine, *conversation_config);
CHECK_OK(conversation);

absl::StatusOr<Message> model_message = (*conversation)->SendMessage(
    JsonMessage{
        {"role", "user"},
        {"content", "What is the capital of France?"}
    });
CHECK_OK(model_message);

std::cout << *model_message << std::endl;
Dil Durum En uygun olduğu durumlar: Belgeler
CLI 🚀
Erken erişim
LiteRT-LM'yi 1 dakikadan kısa sürede kullanmaya başlayın. CLI Kılavuzu
Python
Kararlı
Masaüstü ve Raspberry Pi'de hızlı prototip oluşturma ve geliştirme Python Kılavuzu
Kotlin
Kararlı
Yerel Android uygulamaları ve JVM tabanlı masaüstü araçları. Coroutine'ler için optimize edilmiştir. Android (Kotlin) Rehberi
C++
Kararlı
Yüksek performanslı, platformlar arası temel mantık ve yerleştirilmiş sistemler. C++ Kılavuzu
Swift 🚀
Geliştirme aşamasında
Özel Metal desteğiyle yerel iOS ve macOS entegrasyonu. Çok Yakında

Desteklenen arka uçlar ve platformlar

İvme Android iOS macOS Windows Linux IoT
CPU
GPU -
NPU - - - - -

Desteklenen Modeller

Aşağıdaki tabloda, LiteRT-LM tarafından desteklenen modeller listelenmiştir. Daha ayrıntılı performans rakamları ve model kartları için Hugging Face'teki LiteRT Topluluğu'nu ziyaret edin.

Model Tür Boyut (MB) Ayrıntılar Cihaz CPU Prefill (tk/sn) CPU kod çözme (tk/sn) GPU Prefill (tk/s) GPU kod çözme (tk/sn)
Gemma4-E2B Sohbet 2583 Model Kartı Samsung S26 Ultra 557 47 3808 52
iPhone 17 Pro 532 25 2878 57
MacBook Pro M4 901 42 7835 160
Gemma4-E4B Sohbet 3654 Model Kartı Samsung S26 Ultra 195 18 1293 22
iPhone 17 Pro 159 10 1189 25
MacBook Pro M4 277 27 2560 101
Gemma-3n-E2B Sohbet 2965 Model Kartı MacBook Pro M3 233 28 - -
Samsung S24 Ultra 111 16 816 16
Gemma-3n-E4B Sohbet 4235 Model Kartı MacBook Pro M3 170 20 - -
Samsung S24 Ultra 74 9 548 9
Gemma3-1B Sohbet 1005 Model Kartı Samsung S24 Ultra 177 33 1191 24
FunctionGemma Temel 289 Model Kartı Samsung S25 Ultra 2238 154 - -
phi-4-mini Sohbet 3906 Model Kartı Samsung S24 Ultra 67 7 314 10
Qwen2.5-1.5B Sohbet 1598 Model Kartı Samsung S25 Ultra 298 34 1668 31
Qwen3-0.6B Sohbet 586 Model Kartı Vivo X300 Pro 165 9 580 21
Qwen2.5-0.5B Sohbet 521 Model Kartı Samsung S24 Ultra 251 30 - -

Sorunları Bildirme

Bir hatayla karşılaşırsanız veya özellik isteğinde bulunmak isterseniz LiteRT-LM GitHub Sorunları sayfasından bildirin.