Eseguire LLM sul dispositivo con LiteRT-LM
Framework di inferenza open source pronto per la produzione progettato per fornire deployment LLM multipiattaforma ad alte prestazioni sui dispositivi edge
Perché LiteRT-LM?
Piattaforma multipla
Implementa i LLM su Android, iOS, web e computer.
Accelerato hardware
Massimizza le prestazioni con l'accelerazione di GPU e NPU.
Ampie funzionalità di AI generativa
Supporto per LLM popolari, nonché per la multimodalità (visione, audio) e l'utilizzo di strumenti.
Modelli supportati
Esegui gli ultimi modelli open ottimizzati per l'edge, tra cui Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 e altri ancora.
Unisciti alla Community
GitHub
Contribuire al codice sorgente, segnalare problemi e visualizzare esempi.
Hugging Face
Scarica i modelli pre-convertiti e partecipa alla discussione.