Inferencia de TensorFlow Lite con metadatos

Inferir modelos con metadatos puede ser tan fácil como solo unas pocas líneas de código. Los metadatos de TensorFlow Lite contienen una descripción detallada de lo que hace el modelo y cómo usarlo. Puede permitir que los generadores de código generen automáticamente el código de inferencia por ti, por ejemplo, con la función ML Binding de Android Studio o el generador de código de Android para TensorFlow Lite. También se puede usar para configurar tu canalización de inferencia personalizada.

Herramientas y bibliotecas

TensorFlow Lite ofrece una variedad de herramientas y bibliotecas para satisfacer los diferentes niveles de requisitos de implementación de la siguiente manera:

Cómo generar interfaz de modelo con generadores de código de Android

Existen dos maneras de generar automáticamente el código de wrapper de Android necesario para el modelo de TensorFlow Lite con metadatos:

  1. La vinculación de modelos de AA de Android Studio es una herramienta disponible en Android Studio para importar el modelo de TensorFlow Lite a través de una interfaz gráfica. Android Studio configurará los parámetros para el proyecto automáticamente y generará clases de wrapper según los metadatos del modelo.

  2. El Generador de código de TensorFlow Lite es un ejecutable que genera la interfaz del modelo automáticamente en función de los metadatos. Actualmente, es compatible con Android con Java. El código del wrapper quita la necesidad de interactuar directamente con ByteBuffer. En cambio, los desarrolladores pueden interactuar con el modelo de TensorFlow Lite a través de objetos escritos como Bitmap y Rect. Los usuarios de Android Studio también pueden obtener acceso a la función codegen mediante la vinculación de AA de Android Studio.

Crea canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de TensorFlow Lite

La biblioteca de compatibilidad de TensorFlow Lite es una biblioteca multiplataforma que ayuda a personalizar la interfaz del modelo y compilar canalizaciones de inferencia. Contiene una variedad de métodos de utilidades y estructuras de datos para realizar procesamiento previo y posterior, y conversión de datos. También está diseñado para coincidir con el comportamiento de los módulos de TensorFlow, como TF.Image y TF.Text, lo que garantiza la coherencia desde el entrenamiento hasta la inferencia.

Explora modelos previamente entrenados con metadatos

Explora los modelos de Kaggle si quieres descargar modelos previamente entrenados con metadatos para tareas de visión y texto. Además, consulta las diferentes opciones para visualizar los metadatos.

Repositorio de GitHub de asistencia de TensorFlow Lite

Visita el repositorio de asistencia de GitHub de TensorFlow Lite para obtener más ejemplos y código fuente.