Hay una variedad de modelos de código abierto ya entrenados que puedes usar de inmediato con LiteRT para realizar muchas tareas de aprendizaje automático. El uso de modelos de LiteRT previamente entrenados te permite agregar rápidamente la funcionalidad de aprendizaje automático a tu aplicación para dispositivos móviles y perimetrales sin tener que compilar y entrenar un modelo. Esta guía te ayuda a encontrar y elegir modelos entrenados para usar con LiteRT.
Puedes comenzar a explorar un gran conjunto de modelos en Kaggle Models.
Cómo encontrar un modelo para tu aplicación
Encontrar un modelo de LiteRT existente para tu caso de uso puede ser complicado según lo que intentes lograr. Estas son algunas formas recomendadas de descubrir modelos para usar con LiteRT:
Con ejemplos: La forma más rápida de encontrar modelos y comenzar a usarlos con TensorFlow Lite es explorar la sección Ejemplos de LiteRT para encontrar modelos que realicen una tarea similar a tu caso de uso. Este breve catálogo de ejemplos proporciona modelos para casos de uso comunes con explicaciones de los modelos y código de muestra para que comiences a ejecutarlos y usarlos.
Por tipo de entrada de datos: Además de buscar ejemplos similares a tu caso de uso, otra forma de descubrir modelos para tu propio uso es considerar el tipo de datos que deseas procesar, como datos de audio, texto, imágenes o video. Los modelos de aprendizaje automático suelen diseñarse para usarse con uno de estos tipos de datos, por lo que buscar modelos que controlen el tipo de datos que deseas usar puede ayudarte a reducir la cantidad de modelos que debes considerar.
En la siguiente lista, se incluyen vínculos a los modelos de LiteRT en Kaggle Models para casos de uso comunes:
- Modelos de clasificación de imágenes
- Modelos de detección de objetos
- Modelos de clasificación de texto
- Modelos de incorporación de texto
- Modelos de síntesis de voz de audio
- Modelos de incorporación de audio
Cómo elegir entre modelos similares
Si tu aplicación sigue un caso de uso común, como la clasificación de imágenes o la detección de objetos, es posible que debas elegir entre varios modelos de TensorFlow Lite, con diferentes tamaños binarios, tamaños de entrada de datos, velocidades de inferencia y calificaciones de precisión de predicción. Cuando debas elegir entre varios modelos, primero debes reducir tus opciones según la restricción más limitante: tamaño del modelo, tamaño de los datos, velocidad de inferencia o precisión.
Si no sabes cuál es tu restricción más limitante, considera que es el tamaño del modelo y elige el modelo más pequeño disponible. Elegir un modelo pequeño te brinda la mayor flexibilidad en cuanto a los dispositivos en los que puedes implementar y ejecutar el modelo correctamente. Los modelos más pequeños también suelen producir inferencias más rápidas, y las predicciones más veloces generalmente crean mejores experiencias para el usuario final. Por lo general, los modelos más pequeños tienen tasas de precisión más bajas, por lo que es posible que debas elegir modelos más grandes si la precisión de la predicción es tu principal preocupación.
Fuentes de los modelos
Usa la sección Ejemplos de LiteRT y Modelos de Kaggle como tus primeros destinos para encontrar y seleccionar modelos para usar con TensorFlow Lite. Por lo general, estas fuentes tienen modelos seleccionados y actualizados para usar con LiteRT, y suelen incluir código de muestra para acelerar tu proceso de desarrollo.
Modelos de TensorFlow
Es posible convertir modelos de TensorFlow normales al formato de TensorFlow Lite. Para obtener más información sobre la conversión de modelos, consulta la documentación del conversor de TensorFlow Lite. Puedes encontrar modelos de TensorFlow en Kaggle Models y en TensorFlow Model Garden.