Conversione, runtime e ottimizzazione efficienti per il machine learning sul dispositivo.
LiteRT non è solo una novità, ma la nuova generazione del runtime di machine learning più ampiamente implementato al mondo. Alimenta le app che usi tutti i giorni, offrendo bassa latenza e alta privacy su miliardi di dispositivi.

Considerato attendibile dalle app Google più importanti

Oltre 100.000 applicazioni, miliardi di utenti in tutto il mondo

Punti salienti di LiteRT

Deployment tramite LiteRT

Utilizza modelli preaddestrati .tflite o converti modelli PyTorch, JAX o TensorFlow in .tflite
(Facoltativo) Quantizza il modello
Scegli l'acceleratore che preferisci ed eseguilo su LiteRT

Esempi, modelli e demo

I tutorial mostrano come utilizzare LiteRT con esempi completi end-to-end.
Modelli di AI generativa preaddestrati e pronti all'uso.
Una galleria che mostra i casi d'uso di ML/AI generativa sul dispositivo