Framework de inferência de código aberto pronto para produção, projetado para oferecer implantações de LLM de alto desempenho e multiplataforma em dispositivos de borda.

Destaque

Leve habilidades agênticas de última geração para a borda com o Gemma 4.

Por que o LiteRT-LM?

Implante LLMs no Android, iOS, na Web e em computadores.
Maximize a performance com a aceleração de GPU e NPU.
Suporte para LLMs conhecidos, além de multimodalidade (Visão, Áudio) e uso de ferramentas.

Comece a criar

APIs Python com aceleração de hardware no Linux, MacOS, Windows e Raspberry Pi.
Apps Android nativos e ferramentas de computador baseadas em JVM.
Integração nativa com iOS e macOS e suporte especializado para Metal (APIs Swift em breve).
APIs C++ multiplataforma .

Participe da Comunidade

Contribua com o projeto de código aberto, informe problemas e confira exemplos.
Baixe modelos pré-convertidos (Gemma, Qwen e muito mais) e participe da discussão.

Blogs e anúncios

Implante o Gemma 4 no app e em uma variedade maior de dispositivos com desempenho e alcance incríveis usando o LiteRT-LM.
Implante modelos de linguagem em wearables e plataformas baseadas em navegador usando o LiteRT-LM em grande escala.
Saiba como ajustar o FunctionGemma e ativar os recursos de chamada de função com tecnologia das APIs LiteRT-LM Tool Use.
Insights mais recentes sobre RAG, multimodalidade e chamada de função para modelos de linguagem de borda.