Kornizë inference me burim të hapur, e gatshme për prodhim, e projektuar për të ofruar implementime LLM me performancë të lartë dhe ndërplatformë në pajisjet e skajit.

Në qendër të vëmendjes

Sillni aftësitë e agjenturës më të fundit në kufij me Gemma 4.

Pse LiteRT-LM?

Vendosni LLM në Android, iOS, Web dhe Desktop.
Maksimizoni performancën me përshpejtimin e GPU-së dhe NPU-së.
Mbështetje për LLM-të popullore, si dhe multimodalitetin (Pamje, Audio) dhe Përdorimin e Mjeteve.

Filloni ndërtimin

API-të Python me përshpejtim hardueri në Linux, MacOS, Windows dhe Raspberry Pi.
Aplikacione native Android dhe mjete desktopi të bazuara në JVM.
Integrim nativ i iOS dhe macOS me mbështetje të specializuar për Metal (Swift API-të vijnë së shpejti).
API-të C++ të platformës x.

Bashkohuni me Komunitetin

Kontribuoni në projektin me burim të hapur, raportoni problemet dhe shihni shembuj.
Shkarkoni modele të para-konvertuara (Gemma, Qwen dhe të tjera) dhe bashkohuni në diskutim.

Blogje dhe Njoftime

Vendosni Gemma 4 brenda aplikacionit dhe në një gamë më të gjerë pajisjesh me performancë dhe shtrirje të shkëlqyer duke përdorur LiteRT-LM.
Vendosni modele gjuhësore në platforma të vishetshme dhe të bazuara në shfletues duke përdorur LiteRT-LM në shkallë të gjerë.
Eksploroni se si të përmirësoni FunctionGemma dhe të aktivizoni aftësitë e thirrjes së funksioneve të mundësuara nga LiteRT-LM Tool Use API-të.
Njohuritë më të fundit mbi RAG, multimodalitetin dhe thirrjen e funksioneve për modelet e gjuhës edge.