Executar LLMs no dispositivo com o LiteRT-LM
Framework de inferência de código aberto pronto para produção, projetado para oferecer implantações de LLM de alto desempenho e multiplataforma em dispositivos de borda.
Destaque
IA generativa no dispositivo no Chrome, no Chromebook Plus e no Pixel Watch com LiteRT-LM.
Por que o LiteRT-LM?
Várias plataformas
Implante LLMs no Android, iOS, na Web e em computadores.
Acelerado por hardware
Maximize a performance com a aceleração de GPU e NPU.
Recursos abrangentes de IA generativa
Suporte para LLMs conhecidos, além de multimodalidade (Visão, Áudio) e uso de ferramentas.
Comece a criar
Blogs e anúncios
IA generativa no dispositivo no Chrome, Chromebook Plus e Pixel Watch
Implante modelos de linguagem em wearables e plataformas baseadas em navegador usando o LiteRT-LM em grande escala.
Chamada de função no dispositivo na Galeria do Google AI Edge
Saiba como ajustar o FunctionGemma e ativar os recursos de chamada de função com tecnologia das APIs LiteRT-LM Tool Use.
Modelos de linguagem pequenos, multimodalidade e chamada de função da IA do Google Edge
Insights mais recentes sobre RAG, multimodalidade e chamada de função para modelos de linguagem de borda.
Participe da Comunidade
LiteRT-LM no GitHub
Contribua com o projeto de código aberto, informe problemas e confira exemplos.
Hugging face
Baixe modelos pré-convertidos e participe da discussão.