Panduan penyematan gambar untuk Python

Tugas MediaPipe Image Embedder memungkinkan Anda mengonversi data gambar menjadi representasi numerik untuk menyelesaikan tugas pemrosesan gambar terkait ML, seperti membandingkan kesamaan dari dua gambar. Petunjuk ini menampilkan cara menggunakan Penyemat Gambar dengan Python.

Untuk mengetahui informasi selengkapnya terkait kemampuan, model, dan opsi konfigurasi. tugas ini, lihat Ringkasan.

Contoh kode

Kode contoh untuk Image Embedder menyediakan implementasi lengkap dari proses ini di Python untuk referensi Anda. Kode ini membantu Anda menguji tugas ini dan mendapatkan mulai membuat sematan gambar Anda sendiri. Anda dapat melihat, menjalankan, dan mengedit Contoh Penyemat Gambar kode hanya dengan menggunakan browser web dengan Google Colab. Anda dapat melihat kode sumber untuk contoh ini di GitHub.

Penyiapan

Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan membuat kode project secara khusus untuk menggunakan Image Embedder. Untuk informasi umum tentang menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk Python yang baru.

Paket

Image Embedder akan menjalankan paket pip mediapipe. Anda dapat menginstal dependensi dengan yang berikut:

$ python -m pip install mediapipe

Impor

Impor class berikut untuk mengakses fungsi tugas Image Embedder:

import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision

Model

Tugas MediaPipe Image Embedder memerlukan model terlatih yang kompatibel dengan tugas Anda. Untuk informasi selengkapnya tentang model terlatih yang tersedia untuk Image Embedder, lihat ringkasan tugas bagian Model.

Pilih dan download model, lalu simpan di direktori lokal. Anda dapat menggunakan yang direkomendasikan MobileNetV3 model transformer.

model_path = '/absolute/path/to/mobilenet_v3_small_075_224_embedder.tflite'

Tentukan jalur model dalam parameter model_asset_path, seperti yang ditunjukkan di bawah ini:

base_options = BaseOptions(model_asset_path=model_path)

Membuat tugas

Anda dapat menggunakan fungsi create_from_options untuk membuat tugas. Tujuan Fungsi create_from_options menerima opsi konfigurasi untuk menyetel sematan lainnya. Untuk informasi selengkapnya mengenai opsi konfigurasi, lihat Konfigurasi Ringkasan.

Tugas Image Embedder mendukung 3 jenis data input: file video dan gambar diam dan streaming video live. Pilih tab yang sesuai dengan jenis data input Anda melihat cara membuat tugas dan menjalankan inferensi.

Gambar

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    quantize=True,
    running_mode=VisionRunningMode.IMAGE)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

Video

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    quantize=True,
    running_mode=VisionRunningMode.VIDEO)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

Live stream

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedderResult = mp.tasks.vision.ImageEmbedder.ImageEmbedderResult
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

def print_result(result: ImageEmbedderResult, output_image: mp.Image, timestamp_ms: int):
    print('ImageEmbedderResult result: {}'.format(result))

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    running_mode=VisionRunningMode.LIVE_STREAM,
    quantize=True,
    result_callback=print_result)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

Opsi konfigurasi

Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Python:

Nama Opsi Deskripsi Rentang Nilai Nilai Default
running_mode Menetapkan mode berjalan untuk tugas. Ada tiga moda:

IMAGE: Mode untuk input gambar tunggal.

VIDEO: Mode untuk frame video yang didekode.

LIVE_STREAM: Mode untuk live stream input besar, seperti dari kamera. Dalam mode ini, resultListener harus dipanggil untuk menyiapkan pemroses yang akan menerima hasil secara asinkron.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
l2_normalize Menentukan apakah akan menormalisasi vektor fitur yang ditampilkan dengan norma L2. Gunakan opsi ini hanya jika model belum berisi L2_NORMALIZATION TFLite Op. Dalam kebanyakan kasus, hal ini sudah terjadi dan Dengan demikian, normalisasi L2 dicapai melalui inferensi TFLite tanpa memerlukan untuk opsi ini. Boolean False
quantize Apakah embedding yang dikembalikan harus dikuantisasi ke byte melalui kuantisasi skalar. Embedding secara implisit diasumsikan sebagai norma unit oleh karena itu, setiap dimensi dijamin memiliki nilai dalam [-1.0, 1.0]. Gunakan opsi {i>l2_normalize<i} jika tidak demikian. Boolean False
result_callback Menyetel pemroses hasil untuk menerima hasil penyematan secara asinkron saat Image Embedder ada dalam live stream mode. Hanya dapat digunakan saat mode lari disetel ke LIVE_STREAM T/A Tidak ditetapkan

Menyiapkan data

Siapkan input Anda sebagai file gambar atau array numpy, lalu konversi menjadi Objek mediapipe.Image. Jika input Anda adalah file video atau live stream dari Webcam, Anda dapat menggunakan perpustakaan eksternal seperti OpenCV untuk memuat frame input sebagai numpy .

Gambar

import mediapipe as mp

# Load the input image from an image file.
mp_image = mp.Image.create_from_file('/path/to/image')

# Load the input image from a numpy array.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
    

Video

import mediapipe as mp

# Use OpenCV’s VideoCapture to load the input video.

# Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS
# You’ll need it to calculate the timestamp for each frame.

# Loop through each frame in the video using VideoCapture#read()

# Convert the frame received from OpenCV to a MediaPipe’s Image object.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
    

Live stream

import mediapipe as mp

# Use OpenCV’s VideoCapture to start capturing from the webcam.

# Create a loop to read the latest frame from the camera using VideoCapture#read()

# Convert the frame received from OpenCV to a MediaPipe’s Image object.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
    

Menjalankan tugas

Anda dapat memanggil fungsi sematan yang sesuai dengan mode berjalan untuk memicu inferensi. Image Embedder API akan menampilkan vektor embedding untuk gambar atau bingkai input.

Gambar

# Perform image embedding on the provided single image.
embedding_result = embedder.embed(mp_image)
    

Video

# Calculate the timestamp of the current frame
frame_timestamp_ms = 1000 * frame_index / video_file_fps

# Perform image embedding on the video frame.
embedding_result = embedder.embed_for_video(mp_image, frame_timestamp_ms)
    

Live stream

# Send the latest frame to perform image embedding.
# Results are sent to the `result_callback` provided in the `ImageEmbedderOptions`.
embedder.embed_async(mp_image, frame_timestamp_ms)
    

Perhatikan hal berikut:

  • Saat dalam mode video atau mode live stream, Anda juga harus memberikan stempel waktu {i>frame<i} input ke tugas Image Embedder.
  • Saat dijalankan dalam model gambar atau video, tugas Penyemat Gambar akan memblokir utas saat ini hingga selesai memproses gambar input atau {i>frame<i}.
  • Saat berjalan dalam mode live stream, tugas Penyemat Gambar tidak akan diblokir thread saat ini tetapi langsung kembali. Fungsi ini akan memanggil hasilnya pemroses dengan hasil embedding setiap kali selesai memproses frame input. Jika fungsi embedAsync dipanggil saat Penyemat Gambar sedang sibuk memproses {i>frame<i} lain, tugas tersebut mengabaikan {i>frame<i} input baru.

Menangani dan menampilkan hasil

Setelah menjalankan inferensi, tugas Image Embedder akan menampilkan ImageEmbedderResult yang berisi daftar kategori yang memungkinkan untuk objek dalam gambar atau bingkai input.

Berikut ini contoh data output dari tugas ini:

ImageEmbedderResult:
  Embedding #0 (sole embedding head):
    float_embedding: {0.0, 0.0, ..., 0.0, 1.0, 0.0, 0.0, 2.0}
    head_index: 0

Hasil ini diperoleh dengan menyematkan gambar berikut:

Anda dapat membandingkan kesamaan dua embedding menggunakan Fungsi ImageEmbedder.cosine_similarity. Lihat kode berikut untuk contoh.

# Compute cosine similarity.
similarity = ImageEmbedder.cosine_similarity(
  embedding_result.embeddings[0],
  other_embedding_result.embeddings[0])