Eseguire LLM sul dispositivo con LiteRT-LM
Framework di inferenza open source pronto per la produzione progettato per fornire implementazioni LLM multipiattaforma ad alte prestazioni su dispositivi edge.
In evidenza
GenAI on-device in Chrome, Chromebook Plus e Pixel Watch con LiteRT-LM.
Perché LiteRT-LM?
Piattaforma multipla
Implementa i LLM su Android, iOS, web e computer.
Accelerato hardware
Massimizza le prestazioni con l'accelerazione di GPU e NPU.
Ampie funzionalità di AI generativa
Supporto per LLM popolari, nonché per la multimodalità (visione, audio) e l'utilizzo di strumenti.
Blog e annunci
GenAI on-device in Chrome, Chromebook Plus e Pixel Watch
Esegui il deployment di modelli linguistici su dispositivi indossabili e piattaforme basate su browser utilizzando LiteRT-LM su larga scala.
Chiamata di funzioni on-device nella galleria Google AI Edge
Scopri come ottimizzare FunctionGemma e abilitare le funzionalità di chiamata di funzione basate sulle API LiteRT-LM Tool Use.
Modelli linguistici di piccole dimensioni, multimodalità e chiamate di funzione di Google AI Edge
Approfondimenti più recenti su RAG, multimodalità e chiamata di funzione per i modelli linguistici edge.
Unisciti alla Community
LiteRT-LM su GitHub
Contribuisci al progetto open source, segnala problemi e visualizza esempi.
Hugging Face
Scarica i modelli pre-convertiti e partecipa alla discussione.