Executar LLMs no dispositivo com o LiteRT-LM
Framework de inferência de código aberto pronto para produção, projetado para oferecer implantações de LLM de alto desempenho e multiplataforma em dispositivos de borda.
Por que o LiteRT-LM?
Várias plataformas
Implante LLMs no Android, iOS, na Web e em computadores.
Acelerado por hardware
Maximize a performance com a aceleração de GPU e NPU.
Recursos abrangentes de IA generativa
Suporte para LLMs conhecidos, além de multimodalidade (Visão, Áudio) e uso de ferramentas.
Comece a criar
Participe da Comunidade
LiteRT-LM no GitHub
Contribua com o projeto de código aberto, informe problemas e confira exemplos.
Hugging face
Baixe modelos pré-convertidos (Gemma, Qwen e muito mais) e participe da discussão.
Blogs e anúncios
Leve habilidades agênticas de última geração para a borda com o Gemma 4.
Implante o Gemma 4 no app e em uma variedade maior de dispositivos com desempenho e alcance incríveis usando o LiteRT-LM.
IA generativa no dispositivo no Chrome, Chromebook Plus e Pixel Watch
Implante modelos de linguagem em wearables e plataformas baseadas em navegador usando o LiteRT-LM em grande escala.
Chamada de função no dispositivo na Galeria do Google AI Edge
Saiba como ajustar o FunctionGemma e ativar os recursos de chamada de função com tecnologia das APIs LiteRT-LM Tool Use.
Modelos de linguagem pequenos, multimodalidade e chamada de função da IA do Google Edge
Insights mais recentes sobre RAG, multimodalidade e chamada de função para modelos de linguagem de borda.