Inferencia de LiteRT con metadatos

Inferir modelos con metadatos puede ser tan fácil como unas pocas líneas de código. Los metadatos LiteRT contienen una descripción detallada de qué hace el modelo y cómo usarlo. Puede permitir que los generadores de código generar automáticamente el código de inferencia por ti, como cuando usas Android Función de vinculación de AA de Studio o LiteRT Generador de código de Android. También se puede usar para configurar tu canalización de inferencia personalizada.

Herramientas y bibliotecas

LiteRT ofrece una variedad de herramientas y bibliotecas de implementación de la siguiente manera:

Cómo generar interfaz de modelo con generadores de código de Android

Existen dos maneras de generar automáticamente el código del wrapper de Android necesario Para el modelo LiteRT con metadatos:

  1. Hay herramientas disponibles para la vinculación de modelos de AA de Android Studio en Android Studio para importar el modelo LiteRT interfaz de usuario. Android Studio establecerá automáticamente los parámetros de configuración para las en tu proyecto y generar clases de wrapper basadas en los metadatos del modelo.

  2. El Generador de código LiteRT es un archivo ejecutable que genera una interfaz de modelo automáticamente en función de los metadatos. Actualmente, admite Android con Java. El código del wrapper quita la necesidad de interactuar directamente con ByteBuffer. En cambio, los desarrolladores pueden interactuar con el Modelo LiteRT con objetos escritos como Bitmap y Rect. Los usuarios de Android Studio también pueden acceder a la función codegen a través de Vinculación de AA de Android Studio.

Crea canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de LiteRT

La biblioteca de compatibilidad de LiteRT es una biblioteca multiplataforma. que ayuda a personalizar la interfaz del modelo y crear canalizaciones de inferencia. Integra contiene una variedad de métodos de utilidades y estructuras de datos para realizar pruebas de rendimiento y la conversión de datos. También está diseñado para coincidir con el comportamiento de de TensorFlow, como TF.Image y TF.Text, que garantizan la coherencia desde desde el entrenamiento hasta la inferencia.

Explora modelos previamente entrenados con metadatos

Explora los modelos de Kaggle para descarga modelos previamente entrenados con metadatos para tareas de visión y texto. También ver diferentes opciones para visualizar el metadatos.

Repo de GitHub compatible con LiteRT

Visita el GitHub de asistencia de LiteRT repo para ver más ejemplos y fuentes código.