Nesta página, fornecemos orientações para criar seus modelos do TensorFlow com a intenção de converter para o formato do modelo LiteRT. A máquina de machine learning (ML) usados com a LiteRT são originalmente criados e usando as principais bibliotecas e ferramentas do TensorFlow. Depois de criar um modelo com o TensorFlow Core, é possível convertê-lo em um modelo de ML menor e mais eficiente conhecido como modelo LiteRT.
Se você já tem um modelo para conversão, consulte a seção Converter modelos página de visão geral para orientações sobre como converter seu modelo.
Como criar seu modelo
Se você estiver criando um modelo personalizado para seu caso de uso específico, comece ao desenvolvimento e treinamento de um modelo do TensorFlow ou à extensão de um modelo atual.
Restrições de design do modelo
Antes de iniciar o processo de desenvolvimento do seu modelo, você deve estar ciente das restrições para modelos LiteRT e crie seu modelo com estas restrições em mente:
- Recursos de computação limitados: em comparação com servidores totalmente equipados com várias CPUs, alta capacidade de memória e processadores especializados, como GPUs e TPUs, os dispositivos móveis e de borda são muito mais limitados. Enquanto elas são com capacidade computacional e compatibilidade de hardware especializado, os modelos e os dados que você pode processar efetivamente com eles ainda são comparativamente limitados.
- Tamanho dos modelos: a complexidade geral de um modelo, incluindo dados lógica de pré-processamento e o número de camadas no modelo, aumentam o na memória de um modelo. Um modelo grande pode ser executado de forma inaceitável ou simplesmente podem não caber na memória disponível de um dispositivo móvel ou de borda.
- Tamanho dos dados: o tamanho dos dados de entrada que podem ser processados de maneira eficaz. com um modelo de machine learning é limitado em um dispositivo móvel ou de borda. Modelos que usam grandes bibliotecas de dados, como bibliotecas de linguagem, de imagem ou bibliotecas de clipes de vídeo podem não caber nesses dispositivos e podem exigir soluções de armazenamento e acesso fora do dispositivo.
- Operações do TensorFlow compatíveis: ambientes de execução do LiteRT oferecem suporte a um subconjunto de operações de modelo de machine learning modelos do TensorFlow. Ao desenvolver um modelo para uso com a LiteRT, você pode deve acompanhar a compatibilidade do seu modelo com os recursos do LiteRT ambientes de execução.
Para mais informações sobre a criação de modelos eficazes, compatíveis e de alto desempenho para LiteRT, consulte Práticas recomendadas de desempenho.
Desenvolvimento do modelo
Para criar um modelo LiteRT, primeiro você precisa criar um modelo usando as principais bibliotecas do TensorFlow. As bibliotecas principais do TensorFlow são as bibliotecas que oferecem APIs para criar, treinar e implantar modelos de ML.
Há dois caminhos para fazer isso no TensorFlow. É possível desenvolver seu próprio app ou começar com uma implementação de modelo disponível na Model Garden do TensorFlow
Model Garden
O TensorFlow Model Garden oferece implementações de vários modelos avançados modelos de machine learning (ML) para processamento de linguagem natural (PLN) e visão. Você também vai encontrar ferramentas de fluxo de trabalho para configurar e executar esses recursos em conjuntos de dados padrão. Modelos de machine learning no Grupo de modelos inclua o código completo para que você possa testar, treinar ou treinar novamente usando seu próprio conjuntos de dados.
Se você quiser comparar o desempenho de um modelo conhecido, verifique resultados de pesquisas recém-lançadas ou estender modelos existentes, o modelo O Garden pode ajudar você a atingir suas metas de ML.
Modelos personalizados
Se o caso de uso não estiver incluído nos modelos do Grupo de modelos, use uma biblioteca de alto nível, como a Keras, para desenvolver seu código de treinamento personalizado. Para aprender os conceitos básicos do TensorFlow, consulte a Guia do TensorFlow. Para começar a usar exemplos, consulte os tutoriais do TensorFlow visão geral, que contêm ponteiros para desde do início aos tutoriais de nível de especialista.
Avaliação do modelo
Depois de desenvolver seu modelo, avalie o desempenho dele e teste nos dispositivos dos usuários finais. O TensorFlow oferece algumas maneiras de fazer isso.
- TensorBoard é uma ferramenta para fornecer as medições e visualizações necessárias durante o fluxo de trabalho de machine learning. Ele permite rastrear métricas de experimentos, como perdas e acurácia, visualizando o grafo do modelo, projetando embeddings para um espaço dimensional e muito mais.
- As ferramentas de comparativo de mercado estão disponíveis para todos , como o app Android e o iOS. Usar essas ferramentas para medir e calcular estatísticas de desempenho importante métricas.
Otimização de modelos
Com as restrições aos recursos específicos do TensorFlow Modelos Lite e otimização de modelos podem ajudar a garantir um bom desempenho do modelo e usa menos recursos de computação. O desempenho do modelo de machine learning geralmente equilibrar o tamanho e a velocidade da inferência e da acurácia. LiteRT atualmente oferece suporte à otimização por meio de quantização, remoção e clustering. Consulte o tópico otimização de modelos para obter mais detalhes sobre essas técnicas. O TensorFlow também oferece uma otimização de modelos toolkit, que oferece uma API que implementa esses técnicas.
Próximas etapas
- Para começar a criar seu modelo personalizado, consulte o guia de início rápido para iniciantes. na documentação principal do TensorFlow.
- Para converter seu modelo personalizado do TensorFlow, consulte a página Converter modelos geral do Google.
- Consulte o guia de compatibilidade do operador para determinar se seu modelo é compatível com LiteRT ou se você precisar etapas adicionais para torná-la compatível.
- Consulte o guia de práticas recomendadas de desempenho para receber orientações sobre tornando seus modelos LiteRT eficientes e de desempenho.
- Consulte o guia de métricas de desempenho para saber como medir o desempenho do seu modelo usando ferramentas de comparativo de mercado.