Modelos previamente entrenados para TensorFlow Lite

Hay muchos modelos de código abierto ya entrenados que puedes usar de inmediato con TensorFlow Lite para realizar muchas tareas de aprendizaje automático. Usar modelos de TensorFlow Lite previamente entrenados te permite agregar funciones de aprendizaje automático a tu aplicación de dispositivos móviles y perimetrales con rapidez, sin tener que compilar ni entrenar un modelo. Con esta guía, puedes encontrar modelos entrenados para usar con TensorFlow Lite y decidir cuáles son.

Puedes comenzar a explorar un gran conjunto de modelos en TensorFlow Hub.

Encuentra un modelo para tu aplicación

Encontrar un modelo de TensorFlow Lite existente para tu caso de uso puede ser complicado según lo que intentes lograr. Estas son algunas formas recomendadas de descubrir modelos para usar con TensorFlow Lite:

Por ejemplo: La forma más rápida de encontrar modelos con TensorFlow Lite y comenzar a usarlos es explorar la sección Ejemplos de TensorFlow Lite para encontrar modelos que realicen una tarea similar a la de tu caso de uso. En este breve catálogo de ejemplos, se proporcionan modelos para casos de uso comunes con explicaciones de los modelos y código de muestra para que puedas comenzar a ejecutarlos y usarlos.

Por tipo de entrada de datos: Además de mirar ejemplos similares a tu caso práctico, otra forma de descubrir modelos para tu propio uso es considerar el tipo de datos que quieres procesar, por ejemplo, datos de audio, texto, imágenes o video. Por lo general, los modelos de aprendizaje automático se diseñan para usarse con uno de estos tipos de datos, por lo que buscar modelos que manejen el tipo de datos que deseas usar puede ayudarte a reducir los modelos que debes considerar.

A continuación, se enumeran los vínculos a modelos de TensorFlow Lite en TensorFlow Hub para casos de uso comunes:

Elige entre modelos similares

Si tu aplicación sigue un caso de uso común, como la clasificación de imágenes o la detección de objetos, es posible que debas decidir entre varios modelos de TensorFlow Lite, con distintos tamaños de objetos binarios, tamaños de entrada de datos, velocidad de inferencia y clasificaciones de precisión en las predicciones. Cuando decidas entre varios modelos, debes limitar las opciones en función de la restricción más limitante: tamaño del modelo, tamaño de los datos, velocidad de inferencia o exactitud.

Si no estás seguro de cuál es tu restricción más limitante, supón que es el tamaño del modelo y elige el modelo más pequeño disponible. Elegir un modelo pequeño te brinda la mayor flexibilidad en términos de dispositivos en los que puedes implementar y ejecutar correctamente el modelo. Los modelos más pequeños suelen producir inferencias más rápidas, y las predicciones más rápidas suelen crear mejores experiencias del usuario final. Los modelos más pequeños suelen tener tasas de precisión más bajas, por lo que es posible que debas elegir modelos más grandes si la exactitud de la predicción es tu principal preocupación.

Fuentes de modelos

Usa la sección Ejemplos de TensorFlow Lite y TensorFlow Hub como los primeros destinos para encontrar y seleccionar modelos para usar con TensorFlow Lite. Por lo general, estas fuentes tienen modelos actualizados y seleccionados para usar con TensorFlow Lite y, con frecuencia, incluyen código de muestra para acelerar el proceso de desarrollo.

Modelos de TensorFlow

Es posible convertir modelos regulares de TensorFlow al formato de TensorFlow Lite. Para obtener más información sobre la conversión de modelos, consulta la documentación de TensorFlow Lite Converter. Puedes encontrar modelos de TensorFlow en TensorFlow Hub y en el TensorFlow Model Garden.