Executar LLMs no dispositivo com o LiteRT-LM
Framework de inferência de código aberto pronto para produção, projetado para oferecer implantações de LLM de alto desempenho e multiplataforma em dispositivos de borda.
Por que o LiteRT-LM?
Várias plataformas
Implante LLMs no Android, iOS, na Web e em computadores.
Acelerado por hardware
Maximize a performance com a aceleração de GPU e NPU.
Recursos abrangentes de IA generativa
Suporte para LLMs conhecidos, além de multimodalidade (Visão, Áudio) e uso de ferramentas.
Modelos compatíveis
Execute os modelos abertos mais recentes otimizados para a borda, incluindo Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 e muito mais.
Participe da Comunidade
GitHub
Contribua com o código-fonte, informe problemas e confira exemplos.
Hugging face
Baixe modelos pré-convertidos e participe da discussão.