Conversão, tempo de execução e otimização eficientes para machine learning no dispositivo.
O LiteRT não é apenas novo, ele é a próxima geração do runtime de aprendizado de máquina mais usado do mundo. Ele alimenta os apps que você usa todos os dias, oferecendo baixa latência e alta privacidade em bilhões de dispositivos.

Usado pelos apps mais importantes do Google

Mais de 100 mil aplicativos, bilhões de usuários no mundo todo

Destaques do LiteRT

Implantar via LiteRT

Simplifique seu fluxo de trabalho de aprendizado profundo, desde o treinamento até a implantação no dispositivo.
Use modelos pré-treinados .tflite ou converta modelos do PyTorch, JAX ou TensorFlow para .tflite.
Use o conjunto de ferramentas de otimização do LiteRT para quantizar seus modelos após o treinamento.
Implante seu modelo com o LiteRT e escolha o acelerador ideal para seu app.

Escolha seu caminho de desenvolvimento

Use o LiteRT para implantar a IA em qualquer lugar, desde apps móveis de alto desempenho até dispositivos IoT com recursos limitados.
Transição para o LiteRT para aproveitar o desempenho aprimorado e as APIs unificadas em plataformas (Android, computador e Web).
Ter um modelo do PyTorch e querer implementar experiências de áudio ou visão no dispositivo.
Criar chatbots sofisticados no dispositivo usando modelos de IA generativa de peso aberto otimizados, como o Gemma ou outro modelo de peso aberto.
Criar modelos personalizados ou realizar otimizações profundas de CPU/GPU/NPU específicas de hardware para desempenho máximo.

Exemplos, modelos e demonstração

Modelos de IA generativa pré-treinados e prontos para uso.
Uma galeria que mostra casos de uso de ML/IA generativa no dispositivo usando o LiteRT.

Blogs e anúncios

Fique por dentro dos avisos mais recentes, das análises técnicas e dos comparativos de desempenho da equipe do LiteRT.
O framework unificado de ML no dispositivo do Google, que evoluiu do TFLite para implantação de alto desempenho.
Expansão do suporte à aceleração de NPU para chipsets MediaTek para IA de alta eficiência.
Desempenho inovador para IA generativa em unidades de processamento neural da Qualcomm.
Apresentamos a API CompiledModel para seleção automática de hardware e execução assíncrona.
Implante modelos de linguagem em dispositivos wearable e plataformas baseadas em navegador usando o LiteRT-LM.
Insights mais recentes sobre RAG, multimodalidade e chamada de função para modelos de linguagem de borda

Participe da Comunidade

Contribua diretamente para o projeto e colabore com os desenvolvedores principais.
Acesse modelos de código aberto otimizados no Hugging Face Hub.
Tudo pronto para levar seu ML no dispositivo a outro patamar? Confira a documentação e comece a criar hoje mesmo.