Los modelos de inferencia con metadatos pueden ser tan sencillos como unas pocas líneas de código. Los metadatos de LiteRT contienen una descripción detallada de lo que hace el modelo y cómo usarlo. Puede potenciar los generadores de código para que generen automáticamente el código de inferencia por ti, como usar la función de vinculación de AA de Android Studio o el generador de código de LiteRT para Android. También se puede usar para configurar tu canalización de inferencia personalizada.
Herramientas y bibliotecas
LiteRT proporciona una variedad de herramientas y bibliotecas para satisfacer diferentes niveles de requisitos de implementación, como se indica a continuación:
Genera interfaces de modelos con generadores de código de Android
Existen dos formas de generar automáticamente el código de wrapper de Android necesario para el modelo de LiteRT con metadatos:
La vinculación de modelos de AA de Android Studio es una herramienta disponible en Android Studio para importar el modelo de LiteRT a través de una interfaz gráfica. Android Studio configurará automáticamente los parámetros del proyecto y generará clases wrapper basadas en los metadatos del modelo.
LiteRT Code Generator es un ejecutable que genera automáticamente la interfaz del modelo según los metadatos. Actualmente, admite Android con Java. El código del wrapper elimina la necesidad de interactuar directamente con
ByteBuffer. En cambio, los desarrolladores pueden interactuar con el modelo de LiteRT con objetos escritos, comoBitmapyRect. Los usuarios de Android Studio también pueden acceder a la función de generación de código a través de Android Studio ML Binding.
Crea canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de LiteRT
La biblioteca de compatibilidad de LiteRT es una biblioteca multiplataforma que ayuda a personalizar la interfaz del modelo y a crear canalizaciones de inferencia. Contiene variedades de métodos de utilidad y estructuras de datos para realizar el procesamiento previo y posterior, y la conversión de datos. También está diseñada para coincidir con el comportamiento de los módulos de TensorFlow, como TF.Image y TF.Text, lo que garantiza la coherencia desde el entrenamiento hasta la inferencia.
Explora modelos previamente entrenados con metadatos
Explora los modelos de Kaggle para descargar modelos previamente entrenados con metadatos para tareas de visión y texto. También puedes ver diferentes opciones para visualizar los metadatos.
Repositorio de GitHub de LiteRT Support
Visita el repositorio de GitHub de asistencia de LiteRT para obtener más ejemplos y código fuente.