Conversión, tiempo de ejecución y optimización eficientes para el aprendizaje automático integrado en el dispositivo.
LiteRT no solo es nuevo, sino que es la próxima generación del entorno de ejecución de aprendizaje automático más implementado del mundo. Potencia las apps que usas todos los días, ofrece baja latencia y alta privacidad en miles de millones de dispositivos.

Cuenta con la confianza de las apps de Google más importantes

Más de 100, 000 aplicaciones y miles de millones de usuarios en todo el mundo

Destacados de LiteRT

Implementa a través de LiteRT

Optimiza tu flujo de trabajo de aprendizaje profundo, desde el entrenamiento hasta la implementación en el dispositivo.
Usa modelos previamente entrenados .tflite o convierte modelos de PyTorch, JAX o TensorFlow a .tflite.
Usa el kit de herramientas de optimización de LiteRT para cuantizar tus modelos después del entrenamiento.
Implementa tu modelo con LiteRT y elige el acelerador óptimo para tu app.

Elige tu ruta de desarrollo

Usa LiteRT para implementar la IA en cualquier lugar, desde apps para dispositivos móviles de alto rendimiento hasta dispositivos de IoT con recursos limitados.
Se realizó la transición a LiteRT para aprovechar el rendimiento mejorado y las APIs unificadas en todas las plataformas (Android, escritorio y Web).
Tener un modelo de PyTorch y querer implementar experiencias de audio o visión en el dispositivo
Crear chatbots sofisticados en el dispositivo con modelos de IA generativa optimizados y de peso abierto, como Gemma o algún otro modelo de peso abierto
Crear modelos personalizados o realizar optimizaciones profundas específicas del hardware de CPU/GPU/NPU para obtener el máximo rendimiento

Muestras, modelos y demostración

Apps de ejemplo completas de extremo a extremo
Modelos de IA generativa listos para usar y entrenados previamente.
Una galería que muestra casos de uso de AA/IA generativa integrados en el dispositivo con LiteRT.

Blogs y anuncios

Mantente al tanto de los anuncios más recientes, los análisis técnicos detallados y las comparativas de rendimiento del equipo de LiteRT.
Es el framework unificado de AA integrado en el dispositivo de Google, que evolucionó a partir de TFLite para una implementación de alto rendimiento.
Se amplió la compatibilidad con la aceleración de la NPU para los chipsets de MediaTek, lo que permite una IA de alta eficiencia.
Se desbloqueó un rendimiento revolucionario para la IA generativa en las unidades de procesamiento neuronal de Qualcomm.
Presentamos la API de CompiledModel para la selección de hardware automatizada y la ejecución asíncrona.
Implementa modelos de lenguaje en plataformas basadas en navegadores y wearables con LiteRT-LM.
Las estadísticas más recientes sobre RAG, multimodalidad y llamada a función para modelos de lenguaje perimetrales

Únete a la Comunidad

Contribuir directamente al proyecto y colaborar con los desarrolladores principales
Accede a modelos de código abierto optimizados en Hugging Face Hub.
¿Todo listo para llevar tu AA en el dispositivo al siguiente nivel? Explora la documentación y comienza a crear hoy mismo.