Criado com base no TensorFlow Lite, que já foi testado em batalha
O LiteRT não é apenas novo, ele é a próxima geração do runtime de aprendizado de máquina mais usado do mundo. Ele alimenta os apps que você usa todos os dias, oferecendo baixa latência e alta privacidade em bilhões de dispositivos.
Usado pelos apps mais importantes do Google
Mais de 100 mil aplicativos, bilhões de usuários no mundo todo
Destaques do LiteRT
Pronto para várias plataformas
Aproveite a IA generativa
Aceleração de hardware simplificada
Suporte a vários frameworks
Implantar via LiteRT
Simplifique seu fluxo de trabalho de aprendizado profundo, desde o treinamento até a implantação no dispositivo.
1.Receber um modelo
Use modelos pré-treinados .tflite ou converta modelos do PyTorch, JAX ou TensorFlow para .tflite.
2.Otimizar
Use o conjunto de ferramentas de otimização do LiteRT para quantizar seus modelos após o treinamento.
3.Executar
Implante seu modelo com o LiteRT e escolha o acelerador ideal para seu app.
Escolha seu caminho de desenvolvimento
Use o LiteRT para implantar a IA em qualquer lugar, desde apps móveis de alto desempenho até dispositivos IoT com recursos limitados.
Usuário atual do TFLite
Transição para o LiteRT para aproveitar o desempenho aprimorado e as APIs unificadas em plataformas (Android, computador e Web).
BYOM : traga seus próprios modelos
Ter um modelo do PyTorch e querer implementar experiências de áudio ou visão no dispositivo.
Implantação de modelos de IA generativa
Criar chatbots sofisticados no dispositivo usando modelos de IA generativa de peso aberto otimizados, como o Gemma ou outro modelo de peso aberto.
[Avançado] Especialista em modelos
Criar modelos personalizados ou realizar otimizações profundas de CPU/GPU/NPU específicas de hardware para desempenho máximo.
Exemplos, modelos e demonstração
Confira o app de exemplo do LiteRT no GitHub
Apps de exemplo completos e de ponta a ponta.
Consulte os modelos de IA generativa
Modelos de IA generativa pré-treinados e prontos para uso.
Confira as demonstrações: app da galeria do Google AI Edge
Uma galeria que mostra casos de uso de ML/IA generativa no dispositivo usando o LiteRT.
Blogs e anúncios
Fique por dentro dos avisos mais recentes, das análises técnicas e dos comparativos de desempenho da equipe do LiteRT.
LiteRT: o framework universal para IA no dispositivo
O framework unificado de ML no dispositivo do Google, que evoluiu do TFLite para implantação de alto desempenho.
NPU e LiteRT da MediaTek: impulsionando a próxima geração de IA no dispositivo
Expansão do suporte à aceleração de NPU para chipsets MediaTek para IA de alta eficiência.
Como aproveitar ao máximo o desempenho da NPU Qualcomm com o LiteRT
Desempenho inovador para IA generativa em unidades de processamento neural da Qualcomm.
LiteRT: desempenho máximo, simplificado
Apresentamos a API CompiledModel para seleção automática de hardware e execução assíncrona.
IA generativa no dispositivo no Chrome, no Chromebook Plus e no Pixel Watch com LiteRT-LM
Implante modelos de linguagem em dispositivos wearable e plataformas baseadas em navegador usando o LiteRT-LM.
Modelos de linguagem pequenos, multimodalidade e chamada de função da IA do Google Edge
Insights mais recentes sobre RAG, multimodalidade e chamada de função para modelos de linguagem de borda
Participe da Comunidade
Comunidade do LiteRT no GitHub
Contribua diretamente para o projeto e colabore com os desenvolvedores principais.
Hugging Face Hub
Acesse modelos de código aberto otimizados no Hugging Face Hub.