Python용 이미지 삽입 가이드

MediaPipe 이미지 임베딩 작업을 사용하면 이미지 데이터를 숫자 표현으로 변환할 수 있습니다. 이미지 처리(예: 이미지, 오디오, 동영상)와 같은 두 이미지의 유사성입니다. 이 도움말에서는 Image Embedder with Python

기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예

이미지 Embedder의 예제 코드는 이 참고하세요. 이 코드는 이 작업을 테스트하고 자체 이미지 임베딩기를 구축하기 시작했습니다. Cloud Shell에서 이미지 삽입 예 코드 웹 브라우저에서 Google Colab을 사용하면 됩니다. 이 모듈의 소스 코드는 이 예시를 GitHub

설정

이 섹션에서는 개발 환경을 설정하는 주요 단계를 설명하고 코드 프로젝트에서 이미지 삽입을 사용해야 합니다. 일반적인 정보 다음과 같은 MediaPipe 작업을 사용하기 위한 개발 환경 설정 플랫폼 버전 요구사항에 대한 자세한 내용은 Python을 사용합니다.

<ph type="x-smartling-placeholder">

패키지

Image Embedder 작업 mediapipe pip 패키지. 원하는 경우 다음과 같이 바꿉니다.

$ python -m pip install mediapipe

가져오기

다음 클래스를 가져와 이미지 Embedder 작업 함수에 액세스합니다.

import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision

모델

MediaPipe 이미지 임베딩 작업에는 다음과 호환되는 학습된 모델이 필요합니다. 태스크에 맞추는 것입니다. 이미지 임베딩에 사용할 수 있는 학습된 모델에 대한 자세한 내용은 다음을 참조하세요. 작업 개요의 모델 섹션을 확인합니다.

모델을 선택하고 다운로드한 후 로컬 디렉터리에 저장합니다. 이때 권장 MobileNetV3 있습니다.

model_path = '/absolute/path/to/mobilenet_v3_small_075_224_embedder.tflite'

아래와 같이 model_asset_path 매개변수 내에 모델 경로를 지정합니다.

base_options = BaseOptions(model_asset_path=model_path)

할 일 만들기

create_from_options 함수를 사용하여 작업을 만들 수 있습니다. 이 create_from_options 함수는 Embedder를 설정하는 구성 옵션을 허용합니다. 있습니다. 구성 옵션에 대한 자세한 내용은 구성을 참조하세요. 개요를 참조하세요.

이미지 임베딩 작업은 세 가지 입력 데이터 유형(정지 이미지, 동영상 파일)을 지원합니다. 라이브 동영상 스트림이 포함됩니다 입력 데이터 유형에 해당하는 탭을 선택하여 작업을 생성하고 추론을 실행하는 방법을 알아봅니다.

이미지

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    quantize=True,
    running_mode=VisionRunningMode.IMAGE)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

동영상

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    quantize=True,
    running_mode=VisionRunningMode.VIDEO)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

실시간 스트림

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
ImageEmbedderResult = mp.tasks.vision.ImageEmbedder.ImageEmbedderResult
ImageEmbedder = mp.tasks.vision.ImageEmbedder
ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions
VisionRunningMode = mp.tasks.vision.RunningMode

def print_result(result: ImageEmbedderResult, output_image: mp.Image, timestamp_ms: int):
    print('ImageEmbedderResult result: {}'.format(result))

options = ImageEmbedderOptions(
    base_options=BaseOptions(model_asset_path='/path/to/model.tflite'),
    running_mode=VisionRunningMode.LIVE_STREAM,
    quantize=True,
    result_callback=print_result)

with ImageEmbedder.create_from_options(options) as embedder:
  # The embedder is initialized. Use it here.
  # ...
    

구성 옵션

이 작업에는 Python 애플리케이션을 위한 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
running_mode 작업의 실행 모드를 설정합니다. 세 가지 모드:

IMAGE: 단일 이미지 입력 모드입니다.

동영상: 동영상의 디코딩된 프레임 모드입니다.

LIVE_STREAM: 입력의 라이브 스트림 모드 데이터를 수집할 수 있습니다. 이 모드에서는 resultListener가 결과를 수신하도록 리스너를 설정하기 위해 호출 있습니다.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
l2_normalize L2 norm으로 반환된 특성 벡터를 정규화할지 여부입니다. 모델에 아직 네이티브가 포함되어 있지 않은 경우에만 이 옵션을 사용하세요. L2_NORMALIZATION TFLite 작업 대부분의 경우 이미 이러한 경우에 해당하며 따라서 L2 정규화는 필요 없이 TFLite 추론을 통해 달성됩니다. 이 옵션에 사용할 수 있습니다. Boolean False
quantize 반환된 임베딩을 스칼라 양자화입니다. 임베딩은 암시적으로 단위 표준으로 가정되고 따라서 모든 측정기준은 [-1.0, 1.0] 값을 갖습니다. 사용 그렇지 않은 경우 l2_normalize 옵션을 사용하세요. Boolean False
result_callback 임베딩 결과를 수신하도록 결과 리스너를 설정합니다. 이미지 삽입이 라이브 스트림에 있을 때 비동기식으로 있습니다. 달리기 모드가 LIVE_STREAM로 설정된 경우에만 사용할 수 있습니다. 해당 사항 없음 설정되지 않음

데이터 준비

입력을 이미지 파일 또는 NumPy 배열로 준비한 후 mediapipe.Image 객체. 입력이 동영상 파일 또는 YouTube의 웹캠과 같은 외부 라이브러리를 입력 프레임을 Numpy로 로드하는 OpenCV 배열입니다.

이미지

import mediapipe as mp

# Load the input image from an image file.
mp_image = mp.Image.create_from_file('/path/to/image')

# Load the input image from a numpy array.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
    

동영상

import mediapipe as mp

# Use OpenCV’s VideoCapture to load the input video.

# Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS
# You’ll need it to calculate the timestamp for each frame.

# Loop through each frame in the video using VideoCapture#read()

# Convert the frame received from OpenCV to a MediaPipe’s Image object.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
    

실시간 스트림

import mediapipe as mp

# Use OpenCV’s VideoCapture to start capturing from the webcam.

# Create a loop to read the latest frame from the camera using VideoCapture#read()

# Convert the frame received from OpenCV to a MediaPipe’s Image object.
mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
    

작업 실행

실행 중인 모드에 해당하는 삽입 함수를 호출하여 제공합니다. Image Embedder API는 입력 이미지 또는 프레임이 있습니다.

이미지

# Perform image embedding on the provided single image.
embedding_result = embedder.embed(mp_image)
    

동영상

# Calculate the timestamp of the current frame
frame_timestamp_ms = 1000 * frame_index / video_file_fps

# Perform image embedding on the video frame.
embedding_result = embedder.embed_for_video(mp_image, frame_timestamp_ms)
    

실시간 스트림

# Send the latest frame to perform image embedding.
# Results are sent to the `result_callback` provided in the `ImageEmbedderOptions`.
embedder.embed_async(mp_image, frame_timestamp_ms)
    

다음에 유의하세요.

  • 동영상 모드 또는 라이브 스트림 모드에서 실행하는 경우 이미지 삽입 작업에 입력 프레임의 타임스탬프를 제공합니다.
  • 이미지 또는 동영상 모델에서 실행할 때 이미지 삽입 작업은 입력 이미지 처리가 완료될 때까지 현재 스레드를 차단하거나 있습니다.
  • 라이브 스트림 모드에서 실행할 때 이미지 삽입 작업이 차단되지 않음 즉시 반환됩니다. 그것의 결과를 호출합니다. 임베딩 결과를 반환하는 리스너에 입력 프레임에 연결됩니다. 이미지 임베딩이 포함되어 있을 때 embedAsync 함수가 호출되는 경우 작업이 다른 프레임을 처리하느라 바쁜 경우, 작업은 새 입력 프레임을 무시합니다.

결과 처리 및 표시

추론을 실행하면 Image Embedder 작업은 ImageEmbedderResult를 반환합니다. 이 객체는 카테고리에 있는 객체에 대해 가능한 카테고리 목록을 입력 이미지 또는 프레임이 있습니다.

다음은 이 작업의 출력 데이터 예시를 보여줍니다.

ImageEmbedderResult:
  Embedding #0 (sole embedding head):
    float_embedding: {0.0, 0.0, ..., 0.0, 1.0, 0.0, 0.0, 2.0}
    head_index: 0

이 결과는 다음 이미지를 삽입하여 얻은 것입니다.

다음 함수를 사용하여 두 임베딩의 유사성을 비교할 수 있습니다. ImageEmbedder.cosine_similarity 함수를 사용하세요. 다음 코드를 참고하세요. 예로 들 수 있습니다

# Compute cosine similarity.
similarity = ImageEmbedder.cosine_similarity(
  embedding_result.embeddings[0],
  other_embedding_result.embeddings[0])