Framework de inferência de código aberto pronto para produção, projetado para oferecer implantações de LLM de alto desempenho e multiplataforma em dispositivos de borda.

Por que o LiteRT-LM?

Implante LLMs no Android, iOS, na Web e em computadores.
Maximize a performance com a aceleração de GPU e NPU.
Suporte para LLMs conhecidos, além de multimodalidade (Visão, Áudio) e uso de ferramentas.
Execute os modelos abertos mais recentes otimizados para a borda, incluindo Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 e muito mais.

Comece a criar

Apps Android nativos e ferramentas de computador baseadas em JVM.
Integração nativa com iOS e macOS e suporte especializado para Metal (APIs Swift em breve).
Executar diretamente no navegador com WebAssembly e WebGPU (APIs JS em breve).

Participe da Comunidade

Contribua com o código-fonte, informe problemas e confira exemplos.
Baixe modelos pré-convertidos e participe da discussão.