Cómo compilar modelos LiteRT

En esta página, se proporciona orientación para crear tus modelos de TensorFlow con el intención de convertir al formato LiteRT. La máquina de aprendizaje automático que usas con LiteRT se crean se entrenó con las bibliotecas y herramientas principales de TensorFlow. Una vez que hayas creado un modelo con TensorFlow Core, puedes convertirlo en un modelo de AA más pequeño y eficiente llamado modelo LiteRT.

Si ya tienes un modelo para convertir, consulta el artículo Cómo convertir modelos de resumen para obtener orientación sobre cómo convertir tu modelo.

Compila tu modelo

Si estás creando un modelo personalizado para un caso de uso específico, deberías empezar para desarrollar y entrenar un modelo de TensorFlow o extender uno existente.

Restricciones del diseño del modelo

Antes de comenzar el proceso de desarrollo del modelo, debes conocer para los modelos LiteRT y compilar tu modelo con estos restricciones en mente:

  • Capacidades de procesamiento limitadas: En comparación con los servidores equipados por completo con varias CPU, alta capacidad de memoria y procesadores especializados, como GPU y TPU, los dispositivos móviles y perimetrales son mucho más limitados. Mientras estén la potencia de procesamiento y la compatibilidad especializada de hardware, los modelos y los datos que se pueden procesar eficazmente con ellos siguen siendo comparativamente limitados.
  • Tamaño de los modelos: la complejidad general de un modelo, incluidos los datos la lógica de procesamiento previo y la cantidad de capas en el modelo, aumenta el para el tamaño en memoria de un modelo. Un modelo grande puede ejecutarse muy lento o simplemente pueden no caber en la memoria disponible de un dispositivo móvil o perimetral.
  • Tamaño de los datos: El tamaño de los datos de entrada que se pueden procesar de manera eficaz. con un modelo de aprendizaje automático es limitada en un dispositivo móvil o perimetral. Modelos que usan grandes bibliotecas de datos, como bibliotecas de lenguaje o de imágenes, o las bibliotecas de clips de video pueden no caber en estos dispositivos y pueden de almacenamiento y acceso fuera del dispositivo.
  • Operaciones de TensorFlow compatibles: Entornos de ejecución de LiteRT admiten un subconjunto de operaciones de modelos de aprendizaje automático en comparación con modelos de TensorFlow. Cuando desarrollas un modelo para usarlo con LiteRT, hacer un seguimiento de la compatibilidad de tu modelo con las capacidades LiteRT.

Para obtener más información sobre cómo crear modelos eficaces, compatibles y de alto rendimiento para LiteRT, consulta Prácticas recomendadas para el rendimiento.

Desarrollo de modelos

Para crear un modelo LiteRT, primero debes crear un modelo con el las bibliotecas principales de TensorFlow. Las bibliotecas centrales de TensorFlow son que proporcionan APIs para compilar, entrenar e implementar modelos de AA.

Flujo de trabajo de compilación de TFLite

TensorFlow ofrece dos rutas para hacerlo. Puedes desarrollar tu propio entorno código del modelo o puedes comenzar con la implementación de un modelo Model Garden de TensorFlow.

Model Garden

El Model Garden de TensorFlow ofrece implementaciones de muchos modelos modelos de aprendizaje automático (AA) para la visión y el procesamiento de lenguaje natural (PLN). También hay herramientas de flujo de trabajo que te permiten configurar y ejecutar rápidamente en conjuntos de datos estándar. Los modelos de aprendizaje automático en Model Garden incluye el código completo para que puedas probarlos, entrenarlos o volver a entrenarlos con tu propio conjuntos de datos.

Ya sea que quieras comparar el rendimiento de un modelo conocido, verifica resultados de investigaciones recientemente lanzadas, o extender modelos existentes, el modelo Garden puede ayudarte a impulsar tus objetivos de AA.

Modelos personalizados

Si tu caso de uso está fuera de los admitidos por los modelos en Model Garden, puedes usar una biblioteca de alto nivel como Keras para desarrollar el código de entrenamiento personalizado. Para conocer los aspectos básicos de TensorFlow, consulta el Guía de TensorFlow. Para comenzar consulta los instructivos de TensorFlow descripción general, que incluyen indicadores para instructivos de nivel principiante a experto.

Evaluación del modelo

Una vez que hayas desarrollado tu modelo, debes evaluar su rendimiento y probarlo en dispositivos de usuario final. TensorFlow ofrece algunas formas de hacerlo.

  • TensorBoard es una herramienta para proporcionar las mediciones y visualizaciones necesarias durante la flujo de trabajo del aprendizaje automático. Permite hacer un seguimiento de las métricas del experimento, como la pérdida y exactitud, visualizar el grafo del modelo, proyectar incorporaciones a una superficie inferior espacio dimensional y mucho más.
  • Hay herramientas de comparativas disponibles para cada una como la app comparativa de Android y la de iOS. Usa estas herramientas para medir y calcular estadísticas de rendimiento métricas.

Optimización de modelos

Con las restricciones en los recursos específicos de TensorFlow Con los modelos Lite, la optimización de modelos puede ayudar a garantizar un buen rendimiento del modelo y usa menos recursos de procesamiento. El rendimiento del modelo de aprendizaje automático suele equilibrio entre tamaño y velocidad de la inferencia frente a la exactitud. LiteRT actualmente admite la optimización mediante la cuantización, la reducción y el agrupamiento en clústeres. Consulta sobre la optimización de modelos para obtener más detalles con diversas herramientas y técnicas. TensorFlow también proporciona una optimización de modelos de herramientas que proporciona una API que implementa estas con diversas herramientas y técnicas.

Próximos pasos