Integrimi i ngulitësve të imazhit

Mbajtësit e imazheve lejojnë futjen e imazheve në një vektor tipar me dimension të lartë që përfaqëson kuptimin semantik të një imazhi, i cili më pas mund të krahasohet me vektorin e veçorive të imazheve të tjera për të vlerësuar ngjashmërinë e tyre semantike.

Ndryshe nga kërkimi i imazheve , ngulitësi i imazheve lejon llogaritjen e ngjashmërisë midis imazheve në lëvizje në vend që të kërkoni përmes një indeksi të paracaktuar të ndërtuar nga një korpus imazhesh.

Përdorni API-në e Task Library ImageEmbedder për të vendosur ngulitësin tuaj të personalizuar të imazhit në aplikacionet tuaja celulare.

Karakteristikat kryesore të ImageEmbedder API

  • Përpunimi i imazhit në hyrje, duke përfshirë rrotullimin, ndryshimin e madhësisë dhe konvertimin e hapësirës së ngjyrave.

  • Rajoni i interesit të imazhit të hyrjes.

  • Funksioni i integruar i shërbimeve për të llogaritur ngjashmërinë e kosinusit midis vektorëve të veçorive.

Modele të mbështetura të ngulitjes së imazhit

Modelet e mëposhtme janë të garantuara të jenë të pajtueshme me ImageEmbedder API.

Ekzekutoni konkluzionet në C++

// Initialization
ImageEmbedderOptions options:
options.mutable_model_file_with_metadata()->set_file_name(model_path);
options.set_l2_normalize(true);
std::unique_ptr<ImageEmbedder> image_embedder = ImageEmbedder::CreateFromOptions(options).value();

// Create input frame_buffer_1 and frame_buffer_2 from your inputs `image_data1`, `image_data2`, `image_dimension1` and `image_dimension2`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer_1 = CreateFromRgbRawBuffer(
      image_data1, image_dimension1);
std::unique_ptr<FrameBuffer> frame_buffer_2 = CreateFromRgbRawBuffer(
      image_data2, image_dimension2);

// Run inference on two images.
const EmbeddingResult result_1 = image_embedder->Embed(*frame_buffer_1);
const EmbeddingResult result_2 = image_embedder->Embed(*frame_buffer_2);

// Compute cosine similarity.
double similarity = ImageEmbedder::CosineSimilarity(
    result_1.embeddings[0].feature_vector(),
    result_2.embeddings[0].feature_vector());

Shikoni kodin burimor për më shumë opsione për të konfiguruar ImageEmbedder .

Ekzekutoni konkluzionet në Python

Hapi 1: Instaloni paketën TensorFlow Lite Support Pypi.

Ju mund të instaloni paketën TensorFlow Lite Support Pypi duke përdorur komandën e mëposhtme:

pip install tflite-support

Hapi 2: Përdorimi i modelit

from tflite_support.task import vision

# Initialization.
image_embedder = vision.ImageEmbedder.create_from_file(model_path)

# Run inference on two images.
image_1 = vision.TensorImage.create_from_file('/path/to/image1.jpg')
result_1 = image_embedder.embed(image_1)
image_2 = vision.TensorImage.create_from_file('/path/to/image2.jpg')
result_2 = image_embedder.embed(image_2)

# Compute cosine similarity.
feature_vector_1 = result_1.embeddings[0].feature_vector
feature_vector_2 = result_2.embeddings[0].feature_vector
similarity = image_embedder.cosine_similarity(
    result_1.embeddings[0].feature_vector, result_2.embeddings[0].feature_vector)

Shikoni kodin burimor për më shumë opsione për të konfiguruar ImageEmbedder .

Shembuj të rezultateve

Ngjashmëria e kosinusit midis vektorëve të tipareve të normalizuara kthen një rezultat midis -1 dhe 1. Sa më i lartë është më mirë, dmth një ngjashmëri kosinusi prej 1 do të thotë që dy vektorët janë identikë.

Cosine similarity: 0.954312

Provoni mjetin e thjeshtë demo CLI për ImageEmbedder me modelin tuaj dhe të dhënat e testimit.

Kërkesat e përputhshmërisë së modelit

API ImageEmbedder pret një model TFLite me metadata opsionale, por të rekomanduara fort të modelit TFLite .

Modelet e përputhshme të ngulitësit të imazhit duhet të plotësojnë kërkesat e mëposhtme:

  • Një tensor imazhi hyrës (kTfLiteUInt8/kTfLiteFloat32)

    • futja e imazhit të madhësisë [batch x height x width x channels] .
    • konkluzioni i grupit nuk mbështetet (kërkohet që batch të jetë 1).
    • mbështeten vetëm hyrjet RGB ( channels duhet të jenë 3).
    • nëse lloji është kTfLiteFloat32, NormalizationOptions kërkohet t'i bashkëngjiten meta të dhënave për normalizimin e hyrjes.
  • Të paktën një tensor daljeje (kTfLiteUInt8/kTfLiteFloat32)

    • me N komponentë që korrespondojnë me dimensionet N të vektorit të veçorive të kthyera për këtë shtresë dalëse.
    • Ose 2 ose 4 dimensione, p.sh. [1 x N] ose [1 x 1 x 1 x N] .