Conversão, tempo de execução e otimização eficientes para machine learning no dispositivo.
O LiteRT não é apenas novo, ele é a próxima geração do runtime de aprendizado de máquina mais usado do mundo. Ele alimenta os apps que você usa todos os dias, oferecendo baixa latência e alta privacidade em bilhões de dispositivos.

Usado pelos apps mais importantes do Google

Mais de 100 mil aplicativos, bilhões de usuários no mundo todo

Destaques do LiteRT

Implantar via LiteRT

Usar modelos pré-treinados .tflite ou converter modelos do PyTorch, JAX ou TensorFlow para .tflite
Quantizar o modelo (opcional)
Escolha o acelerador desejado e execute no LiteRT

Exemplos, modelos e demonstração

Os tutoriais ensinam a usar o LiteRT com exemplos completos.
Modelos de IA generativa pré-treinados e prontos para uso.
Uma galeria que mostra casos de uso de ML/IA generativa no dispositivo