Modelos pré-treinados para o TensorFlow Lite

Há uma variedade de modelos de código aberto já treinados que você pode usar imediatamente com o TensorFlow Lite para realizar muitas tarefas de machine learning. O uso de modelos pré-treinados do TensorFlow Lite permite adicionar a funcionalidade de machine learning ao aplicativo de dispositivos móveis e de borda rapidamente, sem precisar criar e treinar um modelo. Este guia ajuda você a encontrar e escolher modelos treinados para usar com o TensorFlow Lite.

Comece a navegar por um grande conjunto de modelos em Modelos de Kaggle (link em inglês).

Encontrar um modelo para seu aplicativo

Encontrar um modelo atual do TensorFlow Lite para seu caso de uso pode ser complicado, dependendo do que você está tentando realizar. Confira algumas maneiras recomendadas de descobrir modelos para uso com o TensorFlow Lite:

Por exemplo:a maneira mais rápida de encontrar e começar a usar modelos com o TensorFlow Lite é acessar a seção Exemplos do TensorFlow Lite para encontrar modelos que executem uma tarefa semelhante ao seu caso de uso. Neste breve catálogo de exemplos, apresentamos modelos para casos de uso comuns com explicações dos modelos e do exemplo de código para você começar a executá-los e usá-los.

Por tipo de entrada de dados:além de analisar exemplos semelhantes ao seu caso de uso, outra maneira de descobrir modelos para seu próprio uso é considerar o tipo de dados que você quer processar, como dados de áudio, texto, imagens ou vídeo. Os modelos de machine learning geralmente são projetados para uso com um desses tipos de dados. Portanto, procurar modelos que processem o tipo de dados que você quer usar pode ajudar a restringir os modelos a serem considerados.

Confira abaixo links para modelos do TensorFlow Lite em modelos Kaggle (link em inglês) para casos de uso comuns:

Escolha entre modelos semelhantes

Caso seu aplicativo siga um caso de uso comum, como classificação de imagens ou detecção de objetos, talvez você precise escolher entre vários modelos do TensorFlow Lite, com tamanhos variáveis de tamanho binário, tamanho de entrada de dados, velocidade de inferência e classificações de precisão da previsão. Ao decidir entre vários modelos, restrinja as opções com base primeiro na restrição mais limitada: tamanho do modelo, tamanho dos dados, velocidade de inferência ou acurácia.

Se você não tiver certeza de qual é sua restrição mais limitada, presuma que seja o tamanho do modelo e escolha o menor modelo disponível. A escolha de um modelo pequeno oferece mais flexibilidade em termos de dispositivos em que é possível implantar e executar o modelo. Modelos menores também costumam produzir inferências mais rápidas, e previsões mais rápidas geralmente criam melhores experiências para o usuário final. Modelos menores normalmente têm taxas de acurácia menores. Portanto, talvez seja necessário escolher modelos maiores se a acurácia da previsão for sua principal preocupação.

Fontes de modelos

Use a seção Exemplos do TensorFlow Lite e Modelos Kaggle como os primeiros destinos para encontrar e selecionar modelos a serem usados com o TensorFlow Lite. Essas fontes geralmente têm modelos atualizados e selecionados para uso com o TensorFlow Lite e costumam incluir exemplos de código para acelerar seu processo de desenvolvimento.

Modelos do TensorFlow

É possível converter modelos comuns do TensorFlow para o formato do TensorFlow Lite. Para mais informações sobre a conversão de modelos, consulte a documentação do TensorFlow Lite Converter. É possível encontrar modelos do TensorFlow em modelos Kaggle e no TensorFlow Model Garden.