Es un framework de inferencia de código abierto listo para producción diseñado para ofrecer implementaciones de LLM multiplataforma y de alto rendimiento en dispositivos perimetrales.

Contenido destacado

Incorpora habilidades de agente de vanguardia al borde con Gemma 4.

¿Por qué usar LiteRT-LM?

Implementa LLMs en Android, iOS, la Web y computadoras.
Maximiza el rendimiento con la aceleración de la GPU y la NPU.
Compatibilidad con LLMs populares, así como con multimodalidad (Vision, Audio) y uso de herramientas

Comienza con la compilación

APIs de Python con aceleración de hardware en Linux, macOS, Windows y Raspberry Pi.
Apps nativas para Android y herramientas de escritorio basadas en JVM
Integración nativa en iOS y macOS con compatibilidad especializada con Metal (próximamente, habrá APIs de Swift).
APIs de C++ multiplataforma .

Únete a la Comunidad

Contribuye al proyecto de código abierto, informa problemas y consulta ejemplos.
Descarga modelos previamente convertidos (Gemma, Qwen y muchos más) y participa en el debate.

Blogs y anuncios

Implementa Gemma 4 en la app y en una mayor variedad de dispositivos con un rendimiento y un alcance excepcionales gracias a LiteRT-LM.
Implementa modelos de lenguaje en plataformas basadas en navegadores y wearables a gran escala con LiteRT-LM.
Explora cómo ajustar FunctionGemma y habilitar las capacidades de llamada a funciones con las APIs de LiteRT-LM Tool Use.
Las estadísticas más recientes sobre RAG, multimodalidad y llamada a función para modelos de lenguaje perimetrales.