A pesquisa de imagens permite pesquisar imagens semelhantes em um banco de dados de imagens. Ela incorpora a consulta de pesquisa em um vetor de alta dimensão que representa o significado semântico da consulta, seguido pela pesquisa por similaridade em uma um índice personalizado predefinido usando ScaNN Vizinhos mais próximos escalonáveis.
Em oposição a classificação de imagens, para expandir o número de itens que podem ser reconhecidos não requer novo treinamento o modelo inteiro. Para adicionar novos itens, basta reconstruir o índice. Isso também permite trabalhar com bancos de dados de imagens maiores (mais de 100 mil itens).
Use a API Task Library ImageSearcher para implantar seu pesquisador de imagens personalizado
aos seus apps para dispositivos móveis.
Principais recursos da API ImageSearcher
Usa uma única imagem como entrada, executa a extração de embeddings e de vizinho mais próximo no índice.
Processamento de imagens de entrada, incluindo rotação, redimensionamento e espaço de cores e conversão em massa.
Região de interesse da imagem de entrada.
Pré-requisitos
Antes de usar a API ImageSearcher, é necessário criar um índice com base no
um corpus de imagens personalizado para pesquisar. Isso pode ser feito usando
API Model Maker Searcher
seguindo e adaptando
tutorial.
Para isso, você vai precisar do seguinte:
- um modelo de incorporador de imagem do TFLite, como mobilenet v3. Veja mais modelos de embedder pré-treinados (também conhecidos como modelos de vetor de atributos) do Coleção de módulos de imagem do Google nos modelos do Kaggle.
 - seu corpus de imagens.
 
Após essa etapa, você terá um modelo de pesquisa do TFLite autônomo (por exemplo,
mobilenet_v3_searcher.tflite), que é o modelo de embedding de imagem original com
o índice anexado ao
Metadados de modelo do TFLite.
Executar inferência em Java
Etapa 1: importar a dependência do Gradle e outras configurações
Copie o arquivo do modelo de pesquisa .tflite para o diretório de assets do Android
módulo em que o modelo será executado. Especifique que o arquivo não deve ser
compactado e adicionar a biblioteca do TensorFlow Lite ao arquivo build.gradle do módulo
arquivo:
android {
    // Other settings
    // Specify tflite index file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }
}
dependencies {
    // Other dependencies
    // Import the Task Vision Library dependency
    implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
    // Import the GPU delegate plugin Library for GPU inference
    implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}
Etapa 2: uso do modelo
// Initialization
ImageSearcherOptions options =
    ImageSearcherOptions.builder()
        .setBaseOptions(BaseOptions.builder().useGpu().build())
        .setSearcherOptions(
            SearcherOptions.builder().setL2Normalize(true).build())
        .build();
ImageSearcher imageSearcher =
    ImageSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = imageSearcher.search(image);
Consulte a
código-fonte e o javadoc (em inglês)
para mais opções de configuração do ImageSearcher.
Executar inferência em C++
// Initialization
ImageSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<ImageSearcher> image_searcher = ImageSearcher::CreateFromOptions(options).value();
// Create input frame_buffer from your inputs, `image_data` and `image_dimension`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer = CreateFromRgbRawBuffer(
      image_data, image_dimension);
// Run inference
const SearchResult result = image_searcher->Search(*frame_buffer).value();
Consulte a
código-fonte
para mais opções de configuração do ImageSearcher.
Executar inferência em Python
Etapa 1: instalar o pacote Pypi de suporte do TensorFlow Lite
Instale o pacote TensorFlow Lite Support Pypi usando o seguinte: comando:
pip install tflite-support
Etapa 2: uso do modelo
from tflite_support.task import vision
# Initialization
image_searcher = vision.ImageSearcher.create_from_file(model_path)
# Run inference
image = vision.TensorImage.create_from_file(image_file)
result = image_searcher.search(image)
Consulte a
código-fonte
para mais opções de configuração do ImageSearcher.
Resultados de exemplo
Results:
 Rank#0:
  metadata: burger
  distance: 0.13452
 Rank#1:
  metadata: car
  distance: 1.81935
 Rank#2:
  metadata: bird
  distance: 1.96617
 Rank#3:
  metadata: dog
  distance: 2.05610
 Rank#4:
  metadata: cat
  distance: 2.06347
Teste a funcionalidade Ferramenta de demonstração da CLI para o ImageSearcher com seu próprio modelo e dados de teste.