Hay una variedad de modelos de código abierto ya entrenados que puedes usar de forma inmediata con LiteRT para realizar muchas tareas de aprendizaje automático. Usar modelos LiteRT previamente entrenados te permite agregar aprendizaje automático a las aplicaciones de dispositivos móviles y perimetrales con rapidez, sin tener para crear y entrenar un modelo. Esta guía te ayuda a encontrar y decidir para usar con LiteRT.
Puedes empezar a navegar por un gran conjunto de modelos en Kaggle Modelos.
Encuentra un modelo para tu aplicación
Encontrar un modelo LiteRT existente para tu caso de uso puede ser complicado según lo que estés tratando de lograr. Estas son algunas formas recomendadas para descubrir modelos que puedes usar con LiteRT:
Por ejemplo: La forma más rápida de encontrar y comenzar a usar modelos con TensorFlow Lite es para navegar en LiteRT. Ejemplos para encontrar modelos que realicen una tarea similar a tu caso de uso. Este breve catálogo de ejemplos proporciona modelos para casos de uso comunes con explicaciones de los modelos y el código de muestra para que empieces a usar de ellos.
Por tipo de entrada de datos: Además de ver ejemplos similares a tu caso de uso, otra forma de descubrir modelos para tu propio uso es considerar el tipo de datos que deseas procesar, como datos de audio, texto, imágenes o video. Máquina de aprendizaje automático se diseñan para usarse con uno de estos tipos de datos, por lo que buscar modelos que manejen el tipo de datos que quieres usar puede ayudarte a reducir los modelos que se deben considerar.
A continuación, se muestra una lista de vínculos a modelos LiteRT de Kaggle. Modelos para casos de uso comunes:
- Clasificación de imágenes personalizados.
- Detección de objetos personalizados.
- Clasificación de texto personalizados.
- Incorporación de texto personalizados.
- Síntesis de voz de audio personalizados.
- Incorporación de audio personalizados.
Elige entre modelos similares
Si tu aplicación sigue un caso de uso común, como una clasificación de imágenes o detección de objetos, puede que debas decidir entre múltiples Los modelos Lite, con diversos tamaños de objetos binarios, tamaños de entrada de datos, velocidad de inferencia y de exactitud y precisión. Al momento de decidir entre varios modelos, debería reducir sus opciones en función de la restricción más restrictiva: el tamaño de el tamaño de los datos, la velocidad de inferencia o la exactitud.
Si no estás seguro de cuál es la restricción más restrictiva, supongamos que se trata del tamaño del modelo y elija el más pequeño disponible. Elegir un modelo pequeño da te ofrece la mayor flexibilidad en cuanto a los dispositivos en los que puedes implementar y ejecutar el modelo. Los modelos más pequeños también suelen producir de datos, y las predicciones más rápidas suelen crear mejores resultados experiencias. Por lo general, los modelos más pequeños tienen tasas de precisión más bajas, por lo que tal vez debas para elegir modelos más grandes si la precisión de las predicciones es tu preocupación principal.
Fuentes de modelos
Usa LiteRT. Ejemplos y los Modelos Kaggle como tus primeros destinos para encontrar y seleccionar modelos para usar con TensorFlow Lite. Por lo general, estas fuentes tienen modelos seleccionados y actualizados para usar con LiteRT y, a menudo, incluyen código de muestra para acelerar de desarrollo de software.
Modelos de TensorFlow
Es posible convertir modelos normales de TensorFlow a TensorFlow Formato lite. Para obtener más información sobre la conversión de modelos, consulta la documentación de TensorFlow Lite Converter. Puedes encontrar modelos de TensorFlow en Modelos de Kaggle y del modelo TensorFlow Jardín.