Inferência do LiteRT com metadados

A inferência de modelos com metadados pode ser tão fácil quanto algumas linhas de código. Os metadados do LiteRT contêm uma descrição detalhada do que o modelo faz e como usá-lo. Ele pode capacitar geradores de código para gerar automaticamente o código de inferência para você, como usar o recurso de vinculação de ML do Android Studio ou o gerador de código LiteRT Android. Ele também pode ser usado para configurar seu pipeline de inferência personalizado.

Ferramentas e bibliotecas

O LiteRT oferece várias ferramentas e bibliotecas para atender a diferentes níveis de requisitos de implantação, como:

Gerar interface de modelo com geradores de código do Android

Há duas maneiras de gerar automaticamente o código wrapper do Android necessário para o modelo LiteRT com metadados:

  1. A vinculação de modelo de ML do Android Studio é uma ferramenta disponível no Android Studio para importar o modelo LiteRT por uma interface gráfica. O Android Studio vai configurar automaticamente as definições do projeto e gerar classes wrapper com base nos metadados do modelo.

  2. O LiteRT Code Generator é um executável que gera interfaces de modelo automaticamente com base nos metadados. No momento, ela é compatível com Android com Java. O código wrapper elimina a necessidade de interagir diretamente com ByteBuffer. Em vez disso, os desenvolvedores podem interagir com o modelo LiteRT com objetos tipados, como Bitmap e Rect. Os usuários do Android Studio também podem acessar o recurso de geração de código usando o Android Studio ML Binding.

Criar pipelines de inferência personalizados com a biblioteca de suporte do LiteRT

A biblioteca de suporte do LiteRT é multiplataforma e ajuda a personalizar a interface do modelo e criar pipelines de inferência. Ele contém vários métodos utilitários e estruturas de dados para realizar pré/pós-processamento e conversão de dados. Ele também foi projetado para corresponder ao comportamento dos módulos do TensorFlow, como TF.Image e TF.Text, garantindo a consistência do treinamento à inferência.

Explorar modelos pré-treinados com metadados

Navegue pelos Modelos do Kaggle para baixar modelos pré-treinados com metadados para tarefas de visão e texto. Confira também diferentes opções de visualização dos metadados.

Repositório do GitHub de suporte ao LiteRT

Acesse o repositório do GitHub de suporte do LiteRT (link em inglês) para mais exemplos e código-fonte.