Hướng dẫn nhận dạng cử chỉ dành cho Android

Nhiệm vụ Trình nhận dạng cử chỉ MediaPipe cho phép bạn nhận dạng cử chỉ của tay theo thời gian thực, đồng thời cung cấp kết quả nhận dạng cử chỉ tay cũng như điểm mốc trên tay của các tay đã phát hiện. Các hướng dẫn này chỉ cho bạn cách sử dụng Trình nhận dạng cử chỉ trong các ứng dụng Android. Mã mẫu được mô tả trong các hướng dẫn này có trên GitHub.

Bạn có thể xem cách hoạt động của công việc này bằng cách xem bản minh hoạ trên web. Để biết thêm thông tin về các tính năng, mô hình và lựa chọn cấu hình của nhiệm vụ này, hãy xem phần Tổng quan.

Ví dụ về mã

Mã ví dụ về MediaPipe Tasks là một cách triển khai đơn giản của ứng dụng Trình nhận dạng cử chỉ dành cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để liên tục phát hiện các cử chỉ của tay, đồng thời có thể sử dụng hình ảnh và video từ thư viện thiết bị để phát hiện tĩnh các cử chỉ.

Bạn có thể dùng ứng dụng làm điểm xuất phát cho ứng dụng Android của riêng mình hoặc tham khảo ứng dụng này khi sửa đổi một ứng dụng hiện có. Mã ví dụ về Trình nhận dạng cử chỉ được lưu trữ trên GitHub.

Tải mã xuống

Hướng dẫn sau đây chỉ cho bạn cách tạo bản sao cục bộ của mã ví dụ bằng công cụ dòng lệnh git.

Cách tải mã ví dụ xuống:

  1. Sao chép kho lưu trữ git bằng lệnh sau:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Bạn có thể tuỳ ý định cấu hình thực thể git để sử dụng quy trình thanh toán thưa thớt, nhờ đó bạn chỉ có các tệp cho ứng dụng ví dụ về Trình nhận dạng cử chỉ:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/gesture_recognizer/android
    

Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio và chạy ứng dụng. Để được hướng dẫn, hãy xem Hướng dẫn thiết lập dành cho Android.

Thành phần chính

Các tệp sau đây chứa mã quan trọng cho ứng dụng mẫu nhận dạng cử chỉ tay này:

Thiết lập

Phần này mô tả các bước chính để thiết lập môi trường phát triển và các dự án mã dành riêng để sử dụng Trình nhận dạng cử chỉ. Để biết thông tin chung về cách thiết lập môi trường phát triển nhằm sử dụng các tác vụ của MediaPipe, bao gồm cả yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập dành cho Android.

Phần phụ thuộc

Tác vụ của Trình nhận dạng cử chỉ sử dụng thư viện com.google.mediapipe:tasks-vision. Thêm phần phụ thuộc này vào tệp build.gradle của ứng dụng Android:

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

Mẫu

Tác vụ Trình nhận dạng cử chỉ MediaPipe cần có gói mô hình đã qua huấn luyện và tương thích với tác vụ này. Để biết thêm thông tin về các mô hình đã huấn luyện cho Trình nhận dạng cử chỉ, hãy xem phần Mô hình tổng quan về tác vụ.

Chọn và tải mô hình xuống rồi lưu trữ trong thư mục dự án của bạn:

<dev-project-root>/src/main/assets

Chỉ định đường dẫn của mô hình trong tham số ModelAssetPath. Trong mã ví dụ, mô hình được xác định trong tệp GestureRecognizerHelper.kt:

baseOptionBuilder.setModelAssetPath(MP_RECOGNIZER_TASK)

Tạo việc cần làm

Tác vụ Trình nhận dạng cử chỉ MediaPipe sử dụng hàm createFromOptions() để thiết lập tác vụ. Hàm createFromOptions() chấp nhận các giá trị cho các lựa chọn cấu hình. Để biết thêm thông tin về các lựa chọn cấu hình, hãy xem phần Lựa chọn cấu hình.

Trình nhận dạng cử chỉ hỗ trợ 3 loại dữ liệu đầu vào: hình ảnh tĩnh, tệp video và luồng video trực tiếp. Bạn cần chỉ định chế độ chạy tương ứng với kiểu dữ liệu đầu vào của mình khi tạo tác vụ. Chọn thẻ tương ứng với loại dữ liệu đầu vào của bạn để xem cách tạo tác vụ và chạy dự đoán.

Bài đăng có hình ảnh

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Video

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Sự kiện trực tiếp

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Ví dụ về cách triển khai mã của Trình nhận dạng cử chỉ cho phép người dùng chuyển đổi giữa các chế độ xử lý. Phương pháp này khiến mã tạo tác vụ trở nên phức tạp hơn và có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong hàm setupGestureRecognizer() ở tệp GestureRecognizerHelper.kt.

Các lựa chọn về cấu hình

Tác vụ này có các lựa chọn cấu hình sau đây cho ứng dụng Android:

Tên lựa chọn Nội dung mô tả Khoảng giá trị Giá trị mặc định
runningMode Đặt chế độ chạy cho tác vụ. Có 3 chế độ:

IMAGE: Chế độ nhập một hình ảnh.

VIDEO: Chế độ khung hình đã giải mã của video.

LIVE_STREAM: Chế độ phát trực tiếp dữ liệu đầu vào, chẳng hạn như từ máy quay. Ở chế độ này, bạn phải gọi resultsListener để thiết lập trình nghe nhằm nhận kết quả không đồng bộ.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numHands GestureRecognizer có thể phát hiện số lượng tay tối đa. Any integer > 0 1
minHandDetectionConfidence Điểm số tin cậy tối thiểu để tính năng phát hiện tay được coi là thành công trong mô hình phát hiện lòng bàn tay. 0.0 - 1.0 0.5
minHandPresenceConfidence Điểm số tin cậy tối thiểu về điểm số có mặt kim trong mô hình phát hiện điểm mốc trên kim đồng hồ. Ở chế độ Video và chế độ phát trực tiếp của Trình nhận dạng cử chỉ, nếu điểm số tự tin về sự có mặt của tay trong mô hình điểm mốc trên tay thấp hơn ngưỡng này, thì điểm số này sẽ kích hoạt mô hình phát hiện tì tay. Nếu không, một thuật toán theo dõi kim nhẹ sẽ được dùng để xác định vị trí của(các) kim nhằm phát hiện điểm mốc tiếp theo. 0.0 - 1.0 0.5
minTrackingConfidence Điểm số tin cậy tối thiểu để theo dõi tay được coi là thành công. Đây là ngưỡng IoU hộp giới hạn giữa các kim trong khung hiện tại và khung cuối cùng. Ở chế độ Video và chế độ Luồng của Trình nhận dạng cử chỉ, nếu quá trình theo dõi không thành công thì Trình nhận dạng cử chỉ sẽ kích hoạt tính năng phát hiện tay. Nếu không, tính năng phát hiện tay sẽ bị bỏ qua. 0.0 - 1.0 0.5
cannedGesturesClassifierOptions Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ soạn trước. Các cử chỉ soạn trước là ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"]
  • Ngôn ngữ của tên hiển thị: ngôn ngữ dùng cho tên hiển thị được chỉ định thông qua Siêu dữ liệu mô hình TFLite, nếu có.
  • Số kết quả tối đa: số lượng tối đa các kết quả phân loại có điểm cao nhất cần trả về. Nếu < 0, hàm sẽ trả về tất cả kết quả hiện có.
  • Ngưỡng điểm: điểm số mà kết quả bị từ chối dưới dạng điểm số. Nếu đặt là 0, hàm sẽ trả về tất cả kết quả hiện có.
  • Danh sách cho phép của danh mục: danh sách cho phép của các tên danh mục. Nếu không trống, kết quả phân loại có danh mục không nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau bằng danh sách từ chối.
  • Danh sách từ chối danh mục: danh sách từ chối chứa tên danh mục. Nếu không trống, kết quả phân loại có danh mục nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau bằng danh sách cho phép.
    • Ngôn ngữ của tên hiển thị: any string
    • Số kết quả tối đa: any integer
    • Ngưỡng điểm số: 0.0-1.0
    • Danh mục được cho phép: vector of strings
    • Danh sách từ chối danh mục: vector of strings
    • Ngôn ngữ của tên hiển thị: "en"
    • Số kết quả tối đa: -1
    • Ngưỡng điểm số: 0
    • Danh mục được cho phép: trống
    • Danh sách từ chối danh mục: trống
    customGesturesClassifierOptions Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ tuỳ chỉnh.
  • Ngôn ngữ của tên hiển thị: ngôn ngữ dùng cho tên hiển thị được chỉ định thông qua Siêu dữ liệu mô hình TFLite, nếu có.
  • Số kết quả tối đa: số lượng tối đa các kết quả phân loại có điểm cao nhất cần trả về. Nếu < 0, hàm sẽ trả về tất cả kết quả hiện có.
  • Ngưỡng điểm: điểm số mà kết quả bị từ chối dưới dạng điểm số. Nếu đặt là 0, hàm sẽ trả về tất cả kết quả hiện có.
  • Danh sách cho phép của danh mục: danh sách cho phép của các tên danh mục. Nếu không trống, kết quả phân loại có danh mục không nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau bằng danh sách từ chối.
  • Danh sách từ chối danh mục: danh sách từ chối chứa tên danh mục. Nếu không trống, kết quả phân loại có danh mục nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau bằng danh sách cho phép.
    • Ngôn ngữ của tên hiển thị: any string
    • Số kết quả tối đa: any integer
    • Ngưỡng điểm số: 0.0-1.0
    • Danh mục được cho phép: vector of strings
    • Danh sách từ chối danh mục: vector of strings
    • Ngôn ngữ của tên hiển thị: "en"
    • Số kết quả tối đa: -1
    • Ngưỡng điểm số: 0
    • Danh mục được cho phép: trống
    • Danh sách từ chối danh mục: trống
    resultListener Thiết lập trình nghe kết quả để nhận kết quả phân loại một cách không đồng bộ khi trình nhận dạng cử chỉ đang ở chế độ phát trực tiếp. Chỉ có thể sử dụng khi bạn đặt chế độ chạy thành LIVE_STREAM ResultListener Không áp dụng Không áp dụng
    errorListener Thiết lập một trình nghe lỗi (không bắt buộc). ErrorListener Không áp dụng Không áp dụng

    Chuẩn bị dữ liệu

    Trình nhận dạng cử chỉ hoạt động với hình ảnh, tệp video và video phát trực tiếp. Tác vụ này sẽ xử lý trước bước xử lý dữ liệu đầu vào, bao gồm cả việc đổi kích thước, xoay và chuẩn hoá giá trị.

    Mã sau đây minh hoạ cách chuyển giao dữ liệu cho việc xử lý. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và luồng video trực tiếp.

    Bài đăng có hình ảnh

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(image).build()
        

    Video

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    val argb8888Frame =
        if (frame.config == Bitmap.Config.ARGB_8888) frame
        else frame.copy(Bitmap.Config.ARGB_8888, false)
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(argb8888Frame).build()
        

    Sự kiện trực tiếp

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
        

    Trong mã ví dụ về Trình nhận dạng cử chỉ, việc chuẩn bị dữ liệu được xử lý trong tệp GestureRecognizerHelper.kt.

    Chạy tác vụ

    Trình nhận dạng cử chỉ sử dụng các hàm recognize, recognizeForVideorecognizeAsync để kích hoạt thông tin dự đoán. Đối với tính năng nhận dạng cử chỉ, quá trình này bao gồm việc xử lý trước dữ liệu đầu vào, phát hiện tay trong hình ảnh, phát hiện dấu vết tay và nhận dạng cử chỉ tay qua các điểm mốc.

    Mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và luồng video trực tiếp.

    Bài đăng có hình ảnh

    val result = gestureRecognizer?.recognize(mpImage)
        

    Video

    val timestampMs = i * inferenceIntervalMs
    
    gestureRecognizer?.recognizeForVideo(mpImage, timestampMs)
        ?.let { recognizerResult ->
            resultList.add(recognizerResult)
        }
        

    Sự kiện trực tiếp

    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    val frameTime = SystemClock.uptimeMillis()
    
    gestureRecognizer?.recognizeAsync(mpImage, frameTime)
        

    Xin lưu ý những điều sau:

    • Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung đầu vào cho tác vụ Trình nhận dạng cử chỉ.
    • Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình nhận dạng cử chỉ sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh hoặc khung đầu vào. Để tránh chặn giao diện người dùng, hãy thực thi quá trình xử lý trong luồng ở chế độ nền.
    • Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhận dạng cử chỉ không chặn luồng hiện tại mà sẽ trả về ngay lập tức. Hàm này sẽ gọi trình nghe kết quả cùng với kết quả nhận dạng mỗi khi xử lý xong khung đầu vào. Nếu chức năng nhận dạng được gọi khi tác vụ Trình nhận dạng cử chỉ đang bận xử lý một khung khác, thì tác vụ đó sẽ bỏ qua khung đầu vào mới.

    Trong mã ví dụ về Trình nhận dạng cử chỉ, các hàm recognize, recognizeForVideorecognizeAsync được xác định trong tệp GestureRecognizerHelper.kt.

    Xử lý và hiển thị kết quả

    Trình nhận dạng cử chỉ tạo một đối tượng kết quả phát hiện cử chỉ cho mỗi lần chạy tính năng nhận dạng. Đối tượng kết quả chứa các điểm mốc của bàn tay trong toạ độ hình ảnh, mốc của tay trong toạ độ thế giới, danh mục cử chỉ tay(tay trái/phải) và danh mục cử chỉ tay của các tay được phát hiện.

    Sau đây là ví dụ về dữ liệu đầu ra của nhiệm vụ này:

    Kết quả GestureRecognizerResult chứa 4 thành phần, và mỗi thành phần là một mảng, trong đó mỗi phần tử chứa kết quả phát hiện được của một kim phát hiện.

    • Tay thuận

      Tay thuận biểu thị việc tay được phát hiện là tay trái hay tay phải.

    • Cử chỉ

      Danh mục cử chỉ được nhận dạng của các tay được phát hiện.

    • Địa danh

      Có 21 điểm mốc kim, mỗi mốc bao gồm các toạ độ x, yz. Các toạ độ xy được chuẩn hoá lần lượt thành [0,0, 1,0] theo chiều rộng và chiều cao của hình ảnh. Toạ độ z thể hiện chiều sâu của điểm mốc, với chiều sâu ở cổ tay là gốc. Giá trị càng nhỏ, điểm đánh dấu càng gần với camera. Độ lớn của z sử dụng tỷ lệ gần tương tự như x.

    • Điểm mốc Thế giới

      Các mốc 21 kim cũng được trình bày theo toạ độ trên thế giới. Mỗi điểm mốc bao gồm x, yz, biểu thị các toạ độ 3D thực tế tính bằng mét với gốc toạ độ ở tâm hình học của kim đồng hồ.

    GestureRecognizerResult:
      Handedness:
        Categories #0:
          index        : 0
          score        : 0.98396
          categoryName : Left
      Gestures:
        Categories #0:
          score        : 0.76893
          categoryName : Thumb_Up
      Landmarks:
        Landmark #0:
          x            : 0.638852
          y            : 0.671197
          z            : -3.41E-7
        Landmark #1:
          x            : 0.634599
          y            : 0.536441
          z            : -0.06984
        ... (21 landmarks for a hand)
      WorldLandmarks:
        Landmark #0:
          x            : 0.067485
          y            : 0.031084
          z            : 0.055223
        Landmark #1:
          x            : 0.063209
          y            : -0.00382
          z            : 0.020920
        ... (21 world landmarks for a hand)
    

    Các hình ảnh sau đây minh hoạ kết quả của tác vụ:

    Trong mã ví dụ về Trình nhận dạng cử chỉ, lớp GestureRecognizerResultsAdapter trong tệp GestureRecognizerResultsAdapter.kt sẽ xử lý các kết quả.