Es un framework de inferencia de código abierto listo para producción diseñado para ofrecer implementaciones de LLM multiplataforma y de alto rendimiento en dispositivos perimetrales.

¿Por qué usar LiteRT-LM?

Implementa LLMs en Android, iOS, la Web y computadoras.
Maximiza el rendimiento con la aceleración de la GPU y la NPU.
Compatibilidad con LLMs populares, así como con multimodalidad (Vision, Audio) y uso de herramientas
Ejecuta los modelos abiertos más recientes optimizados para el borde, incluidos Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 y muchos más.

Comienza con la compilación

Apps nativas para Android y herramientas de escritorio basadas en JVM
Integración nativa en iOS y macOS con compatibilidad especializada con Metal (próximamente, habrá APIs de Swift).
Se ejecuta directamente en el navegador con WebAssembly y WebGPU (pronto estarán disponibles las APIs de JS).

Únete a la Comunidad

Contribuir al código fuente, informar problemas y ver ejemplos
Descarga modelos preconvertidos y participa en el debate.