Es un framework de inferencia de código abierto listo para producción diseñado para ofrecer implementaciones de LLM multiplataforma y de alto rendimiento en dispositivos perimetrales.
IA generativa integrada en el dispositivo en Chrome, Chromebook Plus y Pixel Watch con LiteRT-LM.

¿Por qué usar LiteRT-LM?

Implementa LLMs en Android, iOS, la Web y computadoras.
Maximiza el rendimiento con la aceleración de la GPU y la NPU.
Compatibilidad con LLMs populares, así como con multimodalidad (Vision, Audio) y uso de herramientas

Comienza con la compilación

APIs de Python con aceleración de hardware en Linux, macOS, Windows y Raspberry Pi.
Apps nativas para Android y herramientas de escritorio basadas en JVM
Integración nativa en iOS y macOS con compatibilidad especializada con Metal (próximamente, habrá APIs de Swift).
APIs de C++ multiplataforma .

Blogs y anuncios

Implementa modelos de lenguaje en plataformas basadas en navegadores y wearables a gran escala con LiteRT-LM.
Explora cómo ajustar FunctionGemma y habilitar las capacidades de llamada a funciones con las APIs de LiteRT-LM Tool Use.
Las estadísticas más recientes sobre RAG, multimodalidad y llamada a función para modelos de lenguaje perimetrales.

Únete a la Comunidad

Contribuye al proyecto de código abierto, informa problemas y consulta ejemplos.
Descarga modelos preconvertidos y participa en el debate.