Kornizë inference me burim të hapur, e gatshme për prodhim, e projektuar për të ofruar implementime LLM me performancë të lartë dhe ndërplatformë në pajisjet e skajit.
GenAI në pajisje në Chrome, Chromebook Plus dhe Pixel Watch me LiteRT-LM.

Pse LiteRT-LM?

Vendosni LLM në Android, iOS, Web dhe Desktop.
Maksimizoni performancën me përshpejtimin e GPU-së dhe NPU-së.
Mbështetje për LLM-të popullore, si dhe multimodalitetin (Pamje, Audio) dhe Përdorimin e Mjeteve.

Filloni ndërtimin

API-të Python me përshpejtim hardueri në Linux, MacOS, Windows dhe Raspberry Pi.
Aplikacione native Android dhe mjete desktopi të bazuara në JVM.
Integrim nativ i iOS dhe macOS me mbështetje të specializuar për Metal (Swift API-të vijnë së shpejti).
API-të C++ të platformës x.

Blogje dhe Njoftime

Vendosni modele gjuhësore në platforma të vishetshme dhe të bazuara në shfletues duke përdorur LiteRT-LM në shkallë të gjerë.
Eksploroni se si të përmirësoni FunctionGemma dhe të aktivizoni aftësitë e thirrjes së funksioneve të mundësuara nga LiteRT-LM Tool Use API-të.
Njohuritë më të fundit mbi RAG, multimodalitetin dhe thirrjen e funksioneve për modelet e gjuhës edge.

Bashkohuni me Komunitetin

Kontribuoni në projektin me burim të hapur, raportoni problemet dhe shihni shembuj.
Shkarkoni modelet e para-konvertuara dhe bashkohuni në diskutim.