Modelos previamente entrenados para TensorFlow Lite

Hay una gran variedad de modelos de código abierto ya entrenados que puedes usar de inmediato con TensorFlow Lite para realizar muchas tareas de aprendizaje automático. El uso de modelos previamente entrenados de TensorFlow Lite te permite agregar funciones de aprendizaje automático a tu aplicación de dispositivos móviles y perimetrales con rapidez, sin tener que compilar ni entrenar un modelo. Con esta guía, podrás encontrar y decidir sobre modelos entrenados para usar con TensorFlow Lite.

Puedes comenzar a navegar por un gran conjunto de modelos en Modelos de Kaggle.

Encuentra un modelo para tu aplicación

Encontrar un modelo de TensorFlow Lite existente para tu caso de uso puede ser complicado según lo que intentes lograr. Estas son algunas maneras recomendadas de descubrir modelos para usar con TensorFlow Lite:

Por ejemplo: La forma más rápida de encontrar modelos con TensorFlow Lite y comenzar a usarlos es explorar la sección Ejemplos de TensorFlow Lite para encontrar modelos que realicen una tarea similar a tu caso de uso. Este catálogo breve de ejemplos proporciona modelos para casos de uso comunes con explicaciones de los modelos y código de muestra con el fin de comenzar a ejecutarlos y usarlos.

Por tipo de entrada de datos: Además de ver ejemplos similares a tu caso práctico, otra forma de descubrir modelos para tu propio uso es considerar el tipo de datos que deseas procesar, como datos de audio, texto, imágenes o video. Los modelos de aprendizaje automático suelen diseñarse para usarse con uno de estos tipos de datos, por lo que buscar modelos que controlen el tipo de datos que deseas usar puede ayudarte a limitar qué modelos debes considerar.

A continuación, se enumeran los vínculos a los modelos de TensorFlow Lite en modelos de Kaggle para casos de uso comunes:

Elige entre modelos similares

Si tu aplicación sigue un caso de uso común, como la clasificación de imágenes o la detección de objetos, es posible que debas decidir entre varios modelos de TensorFlow Lite, con variables de tamaño de objeto binario, tamaño de entrada de datos, velocidad de inferencia y calificaciones de precisión de las predicciones. Cuando decidas entre varios modelos, debes limitar las opciones en función de la restricción más limitada: tamaño del modelo, tamaño de los datos, velocidad de inferencia o exactitud.

Si no estás seguro de cuál es tu restricción más limitante, supón que es el tamaño del modelo y elige el modelo más pequeño disponible. Elegir un modelo pequeño te brinda la mayor flexibilidad en términos de los dispositivos en los que puedes implementar y ejecutar el modelo de forma correcta. Los modelos más pequeños suelen producir inferencias más rápidas, y las predicciones más rápidas suelen crear mejores experiencias del usuario final. Por lo general, los modelos más pequeños tienen tasas de exactitud más bajas, por lo que es posible que debas elegir modelos más grandes si la exactitud de las predicciones es tu preocupación principal.

Fuentes de modelos

Usa la sección Ejemplos de TensorFlow Lite y los Modelos de Kaggle como tus primeros destinos para encontrar y seleccionar modelos que se usarán con TensorFlow Lite. Por lo general, estas fuentes tienen modelos seleccionados y actualizados para usar con TensorFlow Lite y, con frecuencia, incluyen código de muestra para acelerar tu proceso de desarrollo.

Modelos de TensorFlow

Es posible convertir modelos normales de TensorFlow al formato de TensorFlow Lite. Para obtener más información sobre la conversión de modelos, consulta la documentación de TensorFlow Lite Converter. Puedes encontrar modelos de TensorFlow en modelos Kaggle y en TensorFlow Model Garden.