Aceleración de la NPU con LiteRT Next

LiteRT Next proporciona una interfaz unificada para usar las unidades de procesamiento neuronal (NPU) sin obligarte a navegar de forma individual por los compiladores, los tiempos de ejecución o las dependencias de bibliotecas específicos del proveedor. El uso de LiteRT Next para la aceleración de la NPU evita muchas complicaciones específicas del proveedor o del dispositivo, aumenta el rendimiento para la inferencia en tiempo real y de modelos grandes, y minimiza las copias de memoria a través del uso de búferes de hardware de copia cero.

Si ya te inscribiste en el programa de acceso anticipado a la NPU de LiteRT, accede a la cuenta autorizada para ver la documentación de la NPU. Si no te inscribiste, regístrate en el Programa de acceso anticipado:

Regístrate

Comenzar

Para comenzar, consulta la guía de descripción general de la NPU:

Para ver ejemplos de implementaciones de LiteRT Next con compatibilidad con la NPU, consulta las siguientes aplicaciones de demostración:

Proveedores de NPU

LiteRT Next admite la aceleración de la NPU con los siguientes proveedores: