Modelos pré-treinados do TensorFlow e do Keras para LiteRT

Há vários modelos de código aberto já treinados que podem ser usados imediatamente com o LiteRT para realizar muitas tarefas de machine learning. Usar modelos LiteRT pré-treinados permite adicionar rapidamente a funcionalidade de machine learning ao aplicativo para dispositivos móveis e de borda sem precisar criar e treinar um modelo. Este guia ajuda você a encontrar e decidir quais modelos treinados usar com o LiteRT.

Comece a navegar por um grande conjunto de modelos no Kaggle Models.

Encontrar um modelo para seu aplicativo

Encontrar um modelo LiteRT para seu caso de uso pode ser difícil, dependendo do que você quer fazer. Confira algumas maneiras recomendadas de descobrir modelos para usar com o LiteRT:

Por exemplo:a maneira mais rápida de encontrar e começar a usar modelos com o TensorFlow Lite é navegar pela seção Exemplos do LiteRT para encontrar modelos que executam uma tarefa semelhante ao seu caso de uso. Este pequeno catálogo de exemplos fornece modelos para casos de uso comuns com explicações dos modelos e exemplos de código para você começar a executar e usar esses modelos.

Por tipo de entrada de dados:além de analisar exemplos semelhantes ao seu caso de uso, outra maneira de descobrir modelos para seu uso é considerar o tipo de dados que você quer processar, como áudio, texto, imagens ou vídeo. Os modelos de machine learning são frequentemente projetados para uso com um desses tipos de dados. Portanto, procurar modelos que processem o tipo de dados que você quer usar pode ajudar a restringir as opções.

Confira a seguir links para modelos LiteRT no Kaggle Models para casos de uso comuns:

Escolher entre modelos semelhantes

Se o aplicativo seguir um caso de uso comum, como classificação de imagens ou detecção de objetos, talvez você precise decidir entre vários modelos do TensorFlow Lite, com tamanhos binários, de entrada de dados, velocidades de inferência e classificações de precisão de previsão variados. Ao decidir entre vários modelos, reduza as opções com base na sua restrição mais limitante: tamanho do modelo, tamanho dos dados, velocidade de inferência ou acurácia.

Se você não tiver certeza de qual é a restrição mais limitante, suponha que seja o tamanho do modelo e escolha o menor disponível. Escolher um modelo pequeno oferece mais flexibilidade em termos de dispositivos em que é possível implantar e executar o modelo. Modelos menores também costumam produzir inferências mais rápidas, e previsões mais rápidas geralmente criam experiências melhores para o usuário final. Modelos menores geralmente têm taxas de acurácia mais baixas. Portanto, talvez seja necessário escolher modelos maiores se a acurácia da previsão for sua principal preocupação.

Fontes para modelos

Use a seção Exemplos do LiteRT e os Modelos do Kaggle como seus primeiros destinos para encontrar e selecionar modelos para uso com o TensorFlow Lite. Essas fontes geralmente têm modelos atualizados e selecionados para uso com LiteRT e incluem com frequência exemplos de código para acelerar seu processo de desenvolvimento.

Modelos do TensorFlow

É possível converter modelos regulares do TensorFlow para o formato do TensorFlow Lite. Para mais informações sobre a conversão de modelos, consulte a documentação do TensorFlow Lite Converter. Você pode encontrar modelos do TensorFlow em Kaggle Models e no TensorFlow Model Garden.