Há vários modelos de código aberto já treinados que você pode usar imediatamente com o LiteRT para realizar várias tarefas de machine learning. O uso de modelos LiteRT pré-treinados permite adicionar machine learning a funcionalidade de aplicativos para dispositivos móveis e de borda com rapidez, sem a necessidade para criar e treinar um modelo. Este guia ajuda você a encontrar e escolher para uso com a LiteRT.
Comece a navegar por um grande conjunto de modelos no Kaggle modelos.
Encontrar um modelo para seu aplicativo
Encontrar um modelo LiteRT existente para seu caso de uso pode ser complicado dependendo do que estiver tentando realizar. Aqui estão algumas maneiras recomendadas para descobrir modelos para uso com a LiteRT:
Por exemplo:a maneira mais rápida de encontrar e começar a usar modelos com o TensorFlow O Lite é navegar no LiteRT Exemplos para encontrar modelos que executam uma tarefa semelhante ao seu caso de uso. Este breve catálogo de exemplos fornece modelos para casos de uso comuns com dos modelos e do exemplo de código para você começar a executar e usar para resolvê-los com rapidez.
Por tipo de entrada de dados:além de analisar exemplos semelhantes ao seu caso de uso, outra maneira de descobrir modelos para seu próprio uso é considerar o tipo de dados que você quer processar, como áudio, texto, imagens ou dados de vídeo. Máquina de machine learning são frequentemente projetados para uso com um desses tipos de dados, Portanto, procurar modelos que lidam com o tipo de dados que você quer usar pode ajudá-lo para restringir os modelos a serem considerados.
A lista a seguir contém links para modelos LiteRT no Kaggle. Modelos para casos de uso comuns:
- Classificação de imagens modelos
- Detecção de objetos modelos
- Classificação de texto modelos
- Incorporação de texto modelos
- Síntese de fala em áudio modelos
- Incorporação de áudio modelos
Escolha entre modelos semelhantes
Se seu aplicativo segue um caso de uso comum, como classificação de imagens ou detecção de objetos, talvez seja necessário escolher entre várias soluções Modelos Lite, com tamanhos variáveis do binário, tamanho da entrada de dados, velocidade de inferência e classificações de precisão da previsão. Ao decidir entre vários modelos, você deve restringir as opções com base primeiro em sua restrição mais limitada: o tamanho de tamanho dos dados, velocidade de inferência ou acurácia.
Se você não tiver certeza de qual é sua restrição mais limitada, presuma que seja o tamanho do modelo e escolher o menor disponível. Escolher um modelo pequeno dá oferecer maior flexibilidade em termos de dispositivos implantar e executar o modelo. Modelos menores também costumam produzir inferências e previsões mais rápidas costumam criar melhores resultados experiências Modelos menores costumam ter taxas de acurácia menores. Por isso, escolher modelos maiores se a acurácia da previsão for sua principal preocupação.
Fontes de modelos
Use a LiteRT Exemplos e Modelos de Kaggle, seus primeiros destinos para encontrar e selecionar modelos para uso com o TensorFlow Lite. Essas fontes geralmente têm modelos atualizados e selecionados para uso com LiteRT e frequentemente incluem exemplos de código para acelerar sua de desenvolvimento de software.
Modelos do TensorFlow
É possível converter modelos regulares do TensorFlow em modelos do TensorFlow Formato Lite. Para mais informações sobre a conversão de modelos, consulte a documentação Lite Converter. Os modelos do TensorFlow estão disponíveis em Modelos da Kaggle e no modelo do TensorFlow do Google.