El ecosistema de Android abarca una amplia variedad de dispositivos con diversas unidades de procesamiento neuronal (NPU). El uso de estas NPU especializadas puede acelerar significativamente la inferencia del modelo de LiteRT (TFLite) y reducir el consumo de energía en comparación con la ejecución de la CPU o la GPU, lo que mejora la experiencia del usuario en tus aplicaciones.
Los proveedores de chips que fabrican NPU proporcionan delegados de LiteRT para permitir que tu app use su hardware específico en el dispositivo de cada usuario.
Delegado directo de Qualcomm® AI Engine
El delegado directo de Qualcomm® AI Engine permite a los usuarios ejecutar modelos de LiteRT con el tiempo de ejecución directo de AI Engine. El delegado se basa en la API de redes neuronales de Qualcomm.
El delegado directo de Qualcomm® AI Engine está disponible en Maven Central. Para obtener más información, consulta la documentación de Qualcomm Neural Network.
Próximamente
Esperamos brindar asistencia a los delegados de los siguientes proveedores en los próximos meses:
- Google Pixel
- Samsung System LSI
- Intel
Mantente al tanto de las actualizaciones y las instrucciones adicionales para usar estos delegados y aprovechar la potencia de las NPU en tus modelos de LiteRT (TFLite).