Kornizë inference me burim të hapur, e gatshme për prodhim, e projektuar për të ofruar implementime LLM me performancë të lartë dhe ndërplatformë në pajisjet e skajit.

Pse LiteRT-LM?

Vendosni LLM në Android, iOS, Web dhe Desktop.
Maksimizoni performancën me përshpejtimin e GPU-së dhe NPU-së.
Mbështetje për LLM-të popullore, si dhe multimodalitetin (Pamje, Audio) dhe Përdorimin e Mjeteve.
Ekzekutoni modelet më të fundit të hapura të optimizuara për skajin, duke përfshirë Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 dhe të tjera.

Filloni ndërtimin

Aplikacione native Android dhe mjete desktopi të bazuara në JVM.
Integrim nativ i iOS dhe macOS me mbështetje të specializuar për Metal (Swift API-të vijnë së shpejti).
Ekzekutoni direkt në shfletues me WebAssembly dhe WebGPU (API-të JS do të vijnë së shpejti).

Bashkohuni me Komunitetin

Kontribuoni në kodin burimor, raportoni problemet dhe shihni shembuj.
Shkarkoni modelet e para-konvertuara dhe bashkohuni në diskutim.