웹용 동작 인식 가이드

MediaPipe 동작 인식기 작업을 사용하면 손 동작을 실시간으로 인식할 수 있으며 인식된 손 동작 결과와 감지된 손의 손 랜드마크를 제공합니다. 다음 안내에서는 웹 및 JavaScript 앱에서 동작 인식기를 사용하는 방법을 보여줍니다.

데모에서 이 작업의 작동 방식을 확인할 수 있습니다. 이 태스크의 기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예시

동작 인식기의 예시 코드는 참조용으로 자바스크립트로 이 작업의 온전한 구현을 제공합니다. 이 코드를 사용하면 이 작업을 테스트하고 자체 동작 인식 앱 빌드를 시작할 수 있습니다. 웹브라우저만 사용하여 동작 인식기 예시 코드를 보고 실행하고 수정할 수 있습니다.

설정

이 섹션에서는 특히 동작 인식기를 사용하기 위해 개발 환경을 설정하는 주요 단계를 설명합니다. 플랫폼 버전 요구사항을 포함하여 웹 및 JavaScript 개발 환경 설정에 관한 일반적인 정보는 웹 설정 가이드를 참고하세요.

JavaScript 패키지

동작 인식기 코드는 MediaPipe @mediapipe/tasks-vision NPM 패키지를 통해 사용할 수 있습니다. 플랫폼 설정 가이드의 안내에 따라 이러한 라이브러리를 찾아 다운로드할 수 있습니다.

다음 명령어를 사용하여 NPM을 통해 필요한 패키지를 설치할 수 있습니다.

npm install @mediapipe/tasks-vision

콘텐츠 전송 네트워크 (CDN) 서비스를 통해 작업 코드를 가져오려면 HTML 파일의 <head> 태그에 다음 코드를 추가합니다.

<!-- You can replace JSDeliver with another CDN if you prefer to -->
<head>
  <script src="https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision/vision_bundle.js"
    crossorigin="anonymous"></script>
</head>

모델

MediaPipe 동작 인식기 작업에는 이 작업과 호환되는 학습된 모델이 필요합니다. 동작 인식기에 사용할 수 있는 학습된 모델에 대한 자세한 내용은 작업 개요 모델 섹션을 참조하세요.

모델을 선택 및 다운로드한 후 프로젝트 디렉터리에 저장합니다.

<dev-project-root>/app/shared/models/

할 일 만들기

동작 인식기 createFrom...() 함수 중 하나를 사용하여 추론 실행을 위한 작업을 준비합니다. 학습된 모델 파일의 상대 또는 절대 경로와 함께 createFromModelPath() 함수를 사용합니다. 모델이 이미 메모리에 로드되어 있다면 createFromModelBuffer() 메서드를 사용할 수 있습니다.

아래 코드 예에서는 createFromOptions() 함수를 사용하여 태스크를 설정하는 방법을 보여줍니다. createFromOptions 함수를 사용하면 구성 옵션으로 동작 인식기를 맞춤설정할 수 있습니다. 구성 옵션에 대한 자세한 내용은 구성 옵션을 참조하세요.

다음 코드는 커스텀 옵션으로 작업을 빌드하고 구성하는 방법을 보여줍니다.

// Create task for image file processing:
const vision = await FilesetResolver.forVisionTasks(
  // path/to/wasm/root
  "https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision@latest/wasm "
);
const gestureRecognizer = await GestureRecognizer.createFromOptions(vision, {
  baseOptions: {
    modelAssetPath: "https://storage.googleapis.com/mediapipe-tasks/gesture_recognizer/gesture_recognizer.task"
  },
  numHands: 2
});

구성 옵션

이 태스크에는 웹 애플리케이션을 위한 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
runningMode 작업의 실행 모드를 설정합니다. 두 가지 모드가 있습니다.

IMAGE: 단일 이미지 입력 모드입니다.

VIDEO: 동영상의 디코딩된 프레임 또는 입력 데이터의 라이브 스트림(예: 카메라)의 모드입니다.
{IMAGE, VIDEO} IMAGE
num_hands 최대 손의 수는 GestureRecognizer에서 감지할 수 있습니다. Any integer > 0 1
min_hand_detection_confidence 손바닥 감지 모델에서 성공적인 것으로 간주하기 위한 손 감지의 최소 신뢰도 점수입니다. 0.0 - 1.0 0.5
min_hand_presence_confidence 손 랜드마크 감지 모델에서 손 인기척 점수의 최소 신뢰도 점수입니다. 동작 인식기의 동영상 모드 및 라이브 스트림 모드에서 손 랜드마크 모델의 손 존재 신뢰도 점수가 이 임계값 미만이면 손바닥 감지 모델이 트리거됩니다. 그러지 않으면 가벼운 손 추적 알고리즘을 사용하여 후속 랜드마크 감지를 위해 손의 위치를 결정합니다. 0.0 - 1.0 0.5
min_tracking_confidence 손바닥 추적을 성공으로 간주하기 위한 최소 신뢰도 점수입니다. 이는 현재 프레임과 마지막 프레임의 침 사이의 경계 상자 IoU 임곗값입니다. 동작 인식기의 동영상 모드 및 스트림 모드에서 추적에 실패하면 동작 인식기가 손 감지를 트리거합니다. 그러지 않으면 손 감지를 건너뜁니다. 0.0 - 1.0 0.5
canned_gestures_classifier_options 미리 준비된 동작 분류기 동작을 구성하기 위한 옵션입니다. 미리 준비된 동작은 ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"]
입니다.
  • 표시 이름 언어: TFLite 모델 메타데이터를 통해 지정된 표시 이름에 사용되는 언어입니다(있는 경우).
  • Max results(최대 결과 수): 반환할 최고 점수 분류 결과의 최대 개수입니다. 0보다 작은 경우 사용 가능한 모든 결과가 반환됩니다.
  • 점수 임계값: 이 점수 미만이면 결과가 거부됩니다. 0으로 설정하면 사용 가능한 모든 결과가 반환됩니다.
  • 카테고리 허용 목록: 카테고리 이름의 허용 목록입니다. 비어 있지 않으면 이 세트에 카테고리가 없는 분류 결과가 필터링됩니다. 차단 목록과 상호 배타적입니다.
  • 카테고리 차단 목록: 카테고리 이름의 차단 목록입니다. 비어 있지 않으면 카테고리가 이 세트에 있는 분류 결과가 필터링됩니다. 허용 목록과 상호 배타적입니다.
    • 표시 이름 언어: any string
    • 최대 결과: any integer
    • 점수 기준: 0.0-1.0
    • 카테고리 허용 목록: vector of strings
    • 카테고리 차단 목록: vector of strings
    • 표시 이름 언어: "en"
    • 최대 결과: -1
    • 점수 기준: 0
    • 카테고리 허용 목록: 비어 있음
    • 카테고리 차단 목록: 비어 있음
    custom_gestures_classifier_options 맞춤 동작 분류 기준 동작을 구성하기 위한 옵션입니다.
  • 표시 이름 언어: TFLite 모델 메타데이터를 통해 지정된 표시 이름에 사용되는 언어입니다(있는 경우).
  • Max results(최대 결과 수): 반환할 최고 점수 분류 결과의 최대 개수입니다. 0보다 작은 경우 사용 가능한 모든 결과가 반환됩니다.
  • 점수 임계값: 이 점수 미만이면 결과가 거부됩니다. 0으로 설정하면 사용 가능한 모든 결과가 반환됩니다.
  • 카테고리 허용 목록: 카테고리 이름의 허용 목록입니다. 비어 있지 않으면 이 세트에 카테고리가 없는 분류 결과가 필터링됩니다. 차단 목록과 상호 배타적입니다.
  • 카테고리 차단 목록: 카테고리 이름의 차단 목록입니다. 비어 있지 않으면 카테고리가 이 세트에 있는 분류 결과가 필터링됩니다. 허용 목록과 상호 배타적입니다.
    • 표시 이름 언어: any string
    • 최대 결과: any integer
    • 점수 기준: 0.0-1.0
    • 카테고리 허용 목록: vector of strings
    • 카테고리 차단 목록: vector of strings
    • 표시 이름 언어: "en"
    • 최대 결과: -1
    • 점수 기준: 0
    • 카테고리 허용 목록: 비어 있음
    • 카테고리 차단 목록: 비어 있음

    데이터 준비

    동작 인식기는 호스트 브라우저에서 지원하는 모든 형식의 이미지에서 동작을 인식할 수 있습니다. 이 작업은 크기 조절, 회전, 값 정규화를 포함한 데이터 입력 전처리도 처리합니다. 동영상의 동작을 인식하려면 API를 사용하여 한 번에 한 프레임을 빠르게 처리하고 프레임의 타임스탬프를 사용하여 동영상 내에서 동작이 발생하는 시점을 결정하면 됩니다.

    작업 실행

    동작 인식기는 recognize() (실행 모드 'image' 사용) 및 recognizeForVideo() (실행 모드 'video' 사용) 메서드를 사용하여 추론을 트리거합니다. 작업은 데이터를 처리하고 손동작을 인식하려고 시도한 후 결과를 보고합니다.

    다음 코드는 작업 모델을 사용하여 처리를 실행하는 방법을 보여줍니다.

    이미지

    const image = document.getElementById("image") as HTMLImageElement;
    const gestureRecognitionResult = gestureRecognizer.recognize(image);

    동영상

    await gestureRecognizer.setOptions({ runningMode: "video" });
    
    let lastVideoTime = -1;
    function renderLoop(): void {
      const video = document.getElementById("video");
    
      if (video.currentTime !== lastVideoTime) {
        const gestureRecognitionResult = gestureRecognizer.recognizeForVideo(video);
        processResult(gestureRecognitionResult);
        lastVideoTime = video.currentTime;
      }
    
      requestAnimationFrame(() => {
        renderLoop();
      });
    }

    동작 인식기 recognize()recognizeForVideo() 메서드 호출은 동기적으로 실행되며 사용자 인터페이스 스레드를 차단합니다. 기기 카메라에서 동영상 프레임의 동작을 인식하면 각 인식이 기본 스레드를 차단합니다. 다른 스레드에서 recognize()recognizeForVideo() 메서드를 실행하는 웹 워커를 구현하여 이를 방지할 수 있습니다.

    동작 인식기 작업 실행을 더 완전하게 구현하려면 코드 예를 참고하세요.

    결과 처리 및 표시

    동작 인식기는 인식을 실행할 때마다 동작 감지 결과 객체를 생성합니다. 결과 객체에는 이미지 좌표의 손 랜드마크, 세계 좌표의 손 랜드마크, 손잡이(왼쪽/오른손), 감지된 손의 손 동작 카테고리가 포함됩니다.

    다음은 이 작업의 출력 데이터 예를 보여줍니다.

    결과 GestureRecognizerResult에는 4개의 구성요소가 포함되며, 각 구성요소는 배열이며, 각 요소에는 감지된 손 한 개의 감지된 결과가 포함되어 있습니다.

    • 잘 쓰는 손

      잘 쓰는 손은 감지된 손이 왼손인지 오른손인지를 나타냅니다.

    • 동작

      감지된 손에서 인식된 동작 카테고리입니다.

    • 명소

      21개의 손 랜드마크가 있으며 각각 x, y, z 좌표로 구성됩니다. xy 좌표는 이미지 너비와 높이에 따라 각각 [0.0, 1.0] 으로 정규화됩니다. z 좌표는 랜드마크의 깊이를 나타내며 손목의 깊이가 원점입니다. 값이 작을수록 랜드마크가 카메라에 더 가까워집니다. z의 크기는 거의 x와 동일한 배율을 사용합니다.

    • 세계의 명소

      21개의 손 모양 랜드마크도 세계 좌표로 표시됩니다. 각 랜드마크는 x, y, z로 구성되며, 실제 3D 좌표를 손의 기하학적 중심에 원점이 있는 미터 단위로 나타냅니다.

    GestureRecognizerResult:
      Handedness:
        Categories #0:
          index        : 0
          score        : 0.98396
          categoryName : Left
      Gestures:
        Categories #0:
          score        : 0.76893
          categoryName : Thumb_Up
      Landmarks:
        Landmark #0:
          x            : 0.638852
          y            : 0.671197
          z            : -3.41E-7
        Landmark #1:
          x            : 0.634599
          y            : 0.536441
          z            : -0.06984
        ... (21 landmarks for a hand)
      WorldLandmarks:
        Landmark #0:
          x            : 0.067485
          y            : 0.031084
          z            : 0.055223
        Landmark #1:
          x            : 0.063209
          y            : -0.00382
          z            : 0.020920
        ... (21 world landmarks for a hand)
    

    다음 이미지는 작업 출력을 시각화한 것입니다.

    동작 인식기 작업 만들기를 더 완전하게 구현하려면 코드 예를 참고하세요.