Conversione, runtime e ottimizzazione efficienti per il machine learning sul dispositivo.
LiteRT non è solo una novità, ma la nuova generazione del runtime di machine learning più ampiamente implementato al mondo. Alimenta le app che usi tutti i giorni, offrendo bassa latenza e alta privacy su miliardi di dispositivi.

Considerato attendibile dalle app Google più importanti

Oltre 100.000 applicazioni, miliardi di utenti in tutto il mondo

Punti salienti di LiteRT

Deployment tramite LiteRT

Semplifica il flusso di lavoro di deep learning dall'addestramento al deployment sul dispositivo.
Utilizza modelli preaddestrati .tflite o converti modelli PyTorch, JAX o TensorFlow in .tflite.
Utilizza il toolkit di ottimizzazione LiteRT per quantizzare i modelli dopo l'addestramento.
Esegui il deployment del modello con LiteRT e scegli l'acceleratore ottimale per la tua app.

Scegliere il percorso di sviluppo

Utilizza LiteRT per eseguire il deployment dell'AI ovunque, dalle app mobile ad alte prestazioni ai dispositivi IoT con risorse limitate.
Passaggio a LiteRT per sfruttare prestazioni migliorate e API unificate su tutte le piattaforme (Android, desktop, web).
Avere un modello PyTorch e voler implementare esperienze audio o di visione sul dispositivo.
Creare chatbot sofisticati sul dispositivo utilizzando modelli di AI generativa open-weight ottimizzati come Gemma o un altro modello open-weight.
Creazione di modelli personalizzati o esecuzione di ottimizzazioni specifiche dell'hardware per CPU/GPU/NPU per ottenere le massime prestazioni.

Esempi, modelli e demo

Modelli di AI generativa preaddestrati e pronti all'uso.
Una galleria che mostra casi d'uso di ML/AI generativa sul dispositivo utilizzando LiteRT.

Blog e annunci

Tieniti al corrente sugli ultimi annunci, sugli approfondimenti tecnici e sui benchmark delle prestazioni del team LiteRT.
Il framework ML on-device unificato di Google, in evoluzione da TFLite per un deployment ad alte prestazioni.
Estensione del supporto dell'accelerazione della NPU ai chipset MediaTek per un'AI ad alta efficienza.
Prestazioni rivoluzionarie per l'AI generativa sulle unità di elaborazione neurale Qualcomm.
Ti presentiamo l'API CompiledModel per la selezione automatica dell'hardware e l'esecuzione asincrona.
Esegui il deployment di modelli linguistici su dispositivi indossabili e piattaforme basate su browser utilizzando LiteRT-LM.
Approfondimenti più recenti su RAG, multimodalità e chiamata di funzione per i modelli linguistici edge

Unisciti alla Community

Contribuire direttamente al progetto e collaborare con gli sviluppatori principali.
Accedi a modelli open-weight ottimizzati su Hugging Face Hub.
Vuoi fare un salto di qualità con il tuo ML on-device? Esplora la documentazione e inizia a creare oggi stesso.