Wyszukiwanie obrazów umożliwia wyszukiwanie podobnych obrazów w bazie danych obrazów. Działa on poprzez osadzanie zapytania w wektorze o dużej liczbie wymiarów, który reprezentuje semantyczne znaczenie zapytania, a następnie wyszukiwanie podobieństw w predefiniowanym indeksie niestandardowym za pomocą algorytmu ScaNN (Scalable Nearest Neighbors).
W przeciwieństwie do klasyfikacji obrazów zwiększenie liczby rozpoznawanych elementów nie wymaga ponownego trenowania całego modelu. Nowe elementy można dodać, po prostu ponownie tworząc indeks. Umożliwia to też pracę z większymi bazami danych obrazów (zawierającymi ponad 100 tys. elementów).
Użyj interfejsu API biblioteki zadań ImageSearcher, aby wdrożyć własną wyszukiwarkę obrazów w aplikacjach mobilnych.
Kluczowe funkcje interfejsu ImageSearcher API
Przyjmuje jako dane wejściowe pojedynczy obraz, wyodrębnia z niego wektor dystrybucyjny i przeprowadza w indeksie wyszukiwanie najbliższych sąsiadów.
Przetwarzanie obrazu wejściowego, w tym obracanie, zmiana rozmiaru i konwersja przestrzeni kolorów.
Obszar zainteresowań na obrazie wejściowym.
Wymagania wstępne
Przed użyciem interfejsu ImageSearcher API należy utworzyć indeks na podstawie niestandardowego korpusu obrazów, w którym będzie można wyszukiwać. Możesz to zrobić, korzystając z interfejsu Model Maker Searcher API. Wystarczy, że wykonasz czynności opisane w samouczku i dostosujesz je do swoich potrzeb.
W tym celu potrzebujesz:
- modelu osadzania obrazów TFLite, np. mobilenet
v3.
Więcej wstępnie wytrenowanych modeli wektorów dystrybucyjnych (czyli modeli wektorów cech) znajdziesz w kolekcji modułów Google Image w Kaggle.
- korpus obrazów.
Po tym kroku powinieneś mieć samodzielny model wyszukiwarki TFLite (np.mobilenet_v3_searcher.tflite), który jest oryginalnym modelem osadzania obrazów z indeksem dołączonym do metadanych modelu TFLite.
Uruchamianie wnioskowania w Javie
Krok 1. Zaimportuj zależność Gradle i inne ustawienia
Skopiuj plik modelu wyszukiwarki .tflite do katalogu zasobów modułu Android, w którym będzie uruchamiany model. Określ, że plik nie powinien być skompresowany, i dodaj bibliotekę TensorFlow Lite do pliku build.gradle modułu:
android {
// Other settings
// Specify tflite index file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}
Krok 2. Korzystanie z modelu
// Initialization
ImageSearcherOptions options =
ImageSearcherOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setSearcherOptions(
SearcherOptions.builder().setL2Normalize(true).build())
.build();
ImageSearcher imageSearcher =
ImageSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = imageSearcher.search(image);
Więcej opcji konfigurowania ImageSearcher znajdziesz w kodzie źródłowym i dokumentacji Javadoc.
Uruchamianie wnioskowania w C++
// Initialization
ImageSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<ImageSearcher> image_searcher = ImageSearcher::CreateFromOptions(options).value();
// Create input frame_buffer from your inputs, `image_data` and `image_dimension`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer = CreateFromRgbRawBuffer(
image_data, image_dimension);
// Run inference
const SearchResult result = image_searcher->Search(*frame_buffer).value();
Więcej opcji konfigurowania ImageSearcher znajdziesz w kodzie źródłowym.
Uruchamianie wnioskowania w Pythonie
Krok 1. Zainstaluj pakiet TensorFlow Lite Support Pypi.
Pakiet TensorFlow Lite Support Pypi możesz zainstalować za pomocą tego polecenia:
pip install tflite-support
Krok 2. Korzystanie z modelu
from tflite_support.task import vision
# Initialization
image_searcher = vision.ImageSearcher.create_from_file(model_path)
# Run inference
image = vision.TensorImage.create_from_file(image_file)
result = image_searcher.search(image)
Więcej opcji konfigurowania ImageSearcher znajdziesz w kodzie źródłowym.
Przykładowe wyniki
Results:
Rank#0:
metadata: burger
distance: 0.13452
Rank#1:
metadata: car
distance: 1.81935
Rank#2:
metadata: bird
distance: 1.96617
Rank#3:
metadata: dog
distance: 2.05610
Rank#4:
metadata: cat
distance: 2.06347
Wypróbuj proste narzędzie demonstracyjne interfejsu wiersza poleceń do wyszukiwarki obrazów z własnym modelem i danymi testowymi.