Criar modelos LiteRT

Nesta página, fornecemos orientações para criar seus modelos do TensorFlow com a intenção de converter para o formato do modelo LiteRT. A máquina de machine learning (ML) usados com a LiteRT são originalmente criados e usando as principais bibliotecas e ferramentas do TensorFlow. Depois de criar um modelo com o TensorFlow Core, é possível convertê-lo em um modelo de ML menor e mais eficiente conhecido como modelo LiteRT.

Se você já tem um modelo para conversão, consulte a seção Converter modelos página de visão geral para orientações sobre como converter seu modelo.

Como criar seu modelo

Se você estiver criando um modelo personalizado para seu caso de uso específico, comece ao desenvolvimento e treinamento de um modelo do TensorFlow ou à extensão de um modelo atual.

Restrições de design do modelo

Antes de iniciar o processo de desenvolvimento do seu modelo, você deve estar ciente das restrições para modelos LiteRT e crie seu modelo com estas restrições em mente:

  • Recursos de computação limitados: em comparação com servidores totalmente equipados com várias CPUs, alta capacidade de memória e processadores especializados, como GPUs e TPUs, os dispositivos móveis e de borda são muito mais limitados. Enquanto elas são com capacidade computacional e compatibilidade de hardware especializado, os modelos e os dados que você pode processar efetivamente com eles ainda são comparativamente limitados.
  • Tamanho dos modelos: a complexidade geral de um modelo, incluindo dados lógica de pré-processamento e o número de camadas no modelo, aumentam o na memória de um modelo. Um modelo grande pode ser executado de forma inaceitável ou simplesmente podem não caber na memória disponível de um dispositivo móvel ou de borda.
  • Tamanho dos dados: o tamanho dos dados de entrada que podem ser processados de maneira eficaz. com um modelo de machine learning é limitado em um dispositivo móvel ou de borda. Modelos que usam grandes bibliotecas de dados, como bibliotecas de linguagem, de imagem ou bibliotecas de clipes de vídeo podem não caber nesses dispositivos e podem exigir soluções de armazenamento e acesso fora do dispositivo.
  • Operações do TensorFlow compatíveis: ambientes de execução do LiteRT oferecem suporte a um subconjunto de operações de modelo de machine learning modelos do TensorFlow. Ao desenvolver um modelo para uso com a LiteRT, você pode deve acompanhar a compatibilidade do seu modelo com os recursos do LiteRT ambientes de execução.

Para mais informações sobre a criação de modelos eficazes, compatíveis e de alto desempenho para LiteRT, consulte Práticas recomendadas de desempenho.

Desenvolvimento do modelo

Para criar um modelo LiteRT, primeiro você precisa criar um modelo usando as principais bibliotecas do TensorFlow. As bibliotecas principais do TensorFlow são as bibliotecas que oferecem APIs para criar, treinar e implantar modelos de ML.

Fluxo de trabalho de build do TFLite

Há dois caminhos para fazer isso no TensorFlow. É possível desenvolver seu próprio app ou começar com uma implementação de modelo disponível na Model Garden do TensorFlow

Model Garden

O TensorFlow Model Garden oferece implementações de vários modelos avançados modelos de machine learning (ML) para processamento de linguagem natural (PLN) e visão. Você também vai encontrar ferramentas de fluxo de trabalho para configurar e executar esses recursos em conjuntos de dados padrão. Modelos de machine learning no Grupo de modelos inclua o código completo para que você possa testar, treinar ou treinar novamente usando seu próprio conjuntos de dados.

Se você quiser comparar o desempenho de um modelo conhecido, verifique resultados de pesquisas recém-lançadas ou estender modelos existentes, o modelo O Garden pode ajudar você a atingir suas metas de ML.

Modelos personalizados

Se o caso de uso não estiver incluído nos modelos do Grupo de modelos, use uma biblioteca de alto nível, como a Keras, para desenvolver seu código de treinamento personalizado. Para aprender os conceitos básicos do TensorFlow, consulte a Guia do TensorFlow. Para começar a usar exemplos, consulte os tutoriais do TensorFlow visão geral, que contêm ponteiros para desde do início aos tutoriais de nível de especialista.

Avaliação do modelo

Depois de desenvolver seu modelo, avalie o desempenho dele e teste nos dispositivos dos usuários finais. O TensorFlow oferece algumas maneiras de fazer isso.

  • TensorBoard é uma ferramenta para fornecer as medições e visualizações necessárias durante o fluxo de trabalho de machine learning. Ele permite rastrear métricas de experimentos, como perdas e acurácia, visualizando o grafo do modelo, projetando embeddings para um espaço dimensional e muito mais.
  • As ferramentas de comparativo de mercado estão disponíveis para todos , como o app Android e o iOS. Usar essas ferramentas para medir e calcular estatísticas de desempenho importante métricas.

Otimização de modelos

Com as restrições aos recursos específicos do TensorFlow Modelos Lite e otimização de modelos podem ajudar a garantir um bom desempenho do modelo e usa menos recursos de computação. O desempenho do modelo de machine learning geralmente equilibrar o tamanho e a velocidade da inferência e da acurácia. LiteRT atualmente oferece suporte à otimização por meio de quantização, remoção e clustering. Consulte o tópico otimização de modelos para obter mais detalhes sobre essas técnicas. O TensorFlow também oferece uma otimização de modelos toolkit, que oferece uma API que implementa esses técnicas.

Próximas etapas