Inferência do LiteRT com metadados

Inferir modelos com metadados pode ser tão fácil quanto algumas linhas de código. Os metadados LiteRT contêm uma descrição rica de o que o modelo faz e como usá-lo. Ele pode capacitar geradores de código para gerar automaticamente o código de inferência para você, como ao usar a API do Android Recurso de vinculação de ML do Studio ou LiteRT Gerador de código do Android. Ele também pode ser usado para e configurar seu pipeline de inferência personalizado.

Ferramentas e bibliotecas

A LiteRT oferece variedades de ferramentas e bibliotecas para atender níveis de requisitos de implantação da seguinte forma:

Gerar uma interface de modelo com geradores de código do Android

Há duas maneiras de gerar automaticamente o código necessário do wrapper do Android para o modelo LiteRT com metadados:

  1. Ferramentas disponíveis na API Android Studio ML Model Binding. no Android Studio para importar o modelo LiteRT por uma interface gráfica interface gráfica do usuário. O Android Studio definirá automaticamente as configurações do e gerar classes de wrapper com base nos metadados do modelo.

  2. O Gerador de código LiteRT é um executável que gera uma interface de modelo automaticamente com base nos metadados. Atualmente, oferece suporte ao Android com Java. O código wrapper elimina a necessidade de interagir diretamente com ByteBuffer. Em vez disso, os desenvolvedores podem interagir Modelo LiteRT com objetos tipados, como Bitmap e Rect. Os usuários do Android Studio também podem acessar o recurso Codegen pelos Vinculação de ML do Android Studio.

Criar pipelines de inferência personalizados com a Biblioteca de Suporte LiteRT

A Biblioteca de Suporte LiteRT é uma biblioteca multiplataforma. que ajuda a personalizar a interface do modelo e criar pipelines de inferência. Ela contém variedades de métodos utilitários e estruturas de dados para realizar pré/pós-testes e conversão de dados. Ele também foi projetado para corresponder ao comportamento módulos do TensorFlow, como TF.Image e TF.Text, que garantem a consistência do treinamento até a inferência.

Explorar modelos pré-treinados com metadados

Navegue por Modelos Kaggle para fazer o download de modelos pré-treinados com metadados para tarefas de visão e texto. Além disso, ver opções diferentes de visualização do metadados.

Repositório do GitHub de suporte do LiteRT

Acesse o GitHub de suporte da LiteRT repositório para mais exemplos e fontes o código-fonte é alterado.