Implementación de AA de alto rendimiento y de IA generativa en plataformas perimetrales
Conversión, tiempo de ejecución y optimización eficientes para el aprendizaje automático integrado en el dispositivo.
Compilado sobre la base probada de TensorFlow Lite
LiteRT no solo es nuevo, sino que es la próxima generación del entorno de ejecución de aprendizaje automático más implementado del mundo. Potencia las apps que usas todos los días, ofrece baja latencia y alta privacidad en miles de millones de dispositivos.
Cuenta con la confianza de las apps de Google más importantes
Más de 100, 000 aplicaciones y miles de millones de usuarios en todo el mundo
Aspectos destacados de LiteRT
Lista para usarse en múltiples plataformas
Libera la IA generativa
Aceleración de hardware simplificada
Compatibilidad con varios frameworks
Implementa a través de LiteRT
Obtén un modelo
Usa modelos .tflite previamente entrenados o convierte modelos de PyTorch, JAX o TensorFlow a .tflite
Optimiza el modelo
Cuantiza el modelo de forma opcional
Ejecución
Elige el acelerador deseado y ejecútalo en LiteRT
Muestras, modelos y demostración
Ver la app de ejemplo
Los instructivos te enseñan a usar LiteRT con ejemplos completos de extremo a extremo.
Ver modelos de IA generativa
Modelos de IA generativa listos para usar y entrenados previamente.
Ver demostraciones: App de galería
Una galería que muestra casos de uso de AA/IA generativa integrados en el dispositivo