Với nhiệm vụ Trình nhận dạng cử chỉ MediaPipe, bạn có thể nhận dạng các cử chỉ của tay theo thời gian thực và cung cấp các kết quả cử chỉ tay được nhận dạng và các mốc nhận dạng bàn tay của đã phát hiện thấy bàn tay nào. Các hướng dẫn sau chỉ cho bạn cách sử dụng Trình nhận dạng cử chỉ thông qua các ứng dụng Android. Bạn có thể xem mã mẫu được mô tả trong các hướng dẫn này trên GitHub.
Bạn có thể xem công việc này trong thực tế bằng cách xem bản minh hoạ trên web. Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của nhiệm vụ này, xem phần Tổng quan.
Ví dụ về mã
Mã ví dụ MediaPipe Tasks là một cách triển khai đơn giản của Trình nhận dạng cử chỉ dành cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để liên tục phát hiện cử chỉ của tay, đồng thời cũng có thể sử dụng hình ảnh và video từ thư viện thiết bị để phát hiện tĩnh các cử chỉ.
Bạn có thể sử dụng ứng dụng này làm điểm khởi đầu cho ứng dụng Android của riêng mình hoặc tham chiếu đến ứng dụng đó khi sửa đổi ứng dụng hiện có. Mã ví dụ về Trình nhận dạng cử chỉ được lưu trữ trên GitHub.
Tải mã xuống
Các hướng dẫn sau đây chỉ cho bạn cách tạo bản sao trên máy của ví dụ bằng công cụ dòng lệnh git.
Cách tải mã ví dụ xuống:
- Sao chép kho lưu trữ git bằng lệnh sau:
git clone https://github.com/google-ai-edge/mediapipe-samples
- Bạn có thể định cấu hình thực thể git để sử dụng quy trình thanh toán thưa thớt,
vì vậy, bạn chỉ có các tệp cho ứng dụng mẫu của Trình nhận dạng cử chỉ:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/gesture_recognizer/android
Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio rồi chạy ứng dụng. Để biết hướng dẫn, hãy xem Hướng dẫn thiết lập dành cho Android.
Thành phần chính
Các tệp sau đây chứa mã quan trọng cho cử chỉ tay này ứng dụng mẫu nhận dạng:
- GestureRecognizerHelper.kt – Khởi chạy trình nhận dạng cử chỉ, đồng thời xử lý mô hình và uỷ quyền lựa chọn.
- MainActivity.kt –
Triển khai ứng dụng, bao gồm cả việc gọi
GestureRecognizerHelper
vàGestureRecognizerResultsAdapter
. - GestureRecognizerResultsAdapter.kt – Xử lý và định dạng kết quả.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và lập trình dự án cụ thể để sử dụng Trình nhận dạng cử chỉ. Để biết thông tin chung về thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Android.
Phần phụ thuộc
Tác vụ Trình nhận dạng cử chỉ sử dụng com.google.mediapipe:tasks-vision
thư viện của bạn. Thêm phần phụ thuộc này vào tệp build.gradle
của ứng dụng Android:
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
Mẫu
Tác vụ Trình nhận dạng cử chỉ MediaPipe cần có một gói mô hình đã huấn luyện tương thích với nhiệm vụ này. Để biết thêm thông tin về các mô hình đã đào tạo hiện có cho Trình nhận dạng cử chỉ, hãy xem phần Mô hình để xem tổng quan về nhiệm vụ.
Chọn và tải mô hình xuống rồi lưu trữ mô hình đó trong thư mục dự án:
<dev-project-root>/src/main/assets
Chỉ định đường dẫn của mô hình trong tham số ModelAssetPath
. Trong
mã ví dụ,
mô hình được xác định trong GestureRecognizerHelper.kt
tệp:
baseOptionBuilder.setModelAssetPath(MP_RECOGNIZER_TASK)
Tạo việc cần làm
Tác vụ Trình nhận dạng cử chỉ MediaPipe sử dụng hàm createFromOptions()
để đặt
công việc. Hàm createFromOptions()
chấp nhận các giá trị cho
các tuỳ chọn cấu hình. Để biết thêm thông tin về các tuỳ chọn cấu hình,
hãy xem phần Tuỳ chọn cấu hình.
Trình nhận dạng cử chỉ hỗ trợ 3 loại dữ liệu đầu vào: ảnh tĩnh, tệp video và luồng video trực tiếp. Bạn cần chỉ định chế độ đang chạy tương ứng với loại dữ liệu đầu vào của bạn khi tạo công việc. Chọn thẻ tương ứng với loại dữ liệu đầu vào để xem cách tạo tác vụ và chạy suy luận.
Bài đăng có hình ảnh
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
Video
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
Sự kiện phát trực tiếp
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
Việc triển khai mã ví dụ về Trình nhận dạng cử chỉ cho phép người dùng chuyển đổi giữa
chế độ xử lý. Phương pháp này làm cho mã tạo tác vụ trở nên phức tạp hơn và
có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong
Hàm setupGestureRecognizer()
trong
GestureRecognizerHelper.kt
.
Các lựa chọn về cấu hình
Nhiệm vụ này có các lựa chọn cấu hình sau đây cho ứng dụng Android:
Tên lựa chọn | Mô tả | Khoảng giá trị | Giá trị mặc định | |
---|---|---|---|---|
runningMode |
Thiết lập chế độ chạy cho tác vụ. Có ba
chế độ: HÌNH ẢNH: Chế độ cho đầu vào một hình ảnh. VIDEO: Chế độ cho các khung đã giải mã của video. LIVE_STREAM: Chế độ phát trực tiếp đầu vào chẳng hạn như từ máy ảnh. Trong chế độ này, ResultsListener phải là để thiết lập trình nghe để nhận kết quả một cách không đồng bộ. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
|
numHands |
Số lượng tay tối đa có thể phát hiện bằng
GestureRecognizer .
|
Any integer > 0 |
1 |
|
minHandDetectionConfidence |
Điểm tin cậy tối thiểu để phát hiện tay được coi là thành công trong mô hình phát hiện tì tay. | 0.0 - 1.0 |
0.5 |
|
minHandPresenceConfidence |
Điểm số tin cậy tối thiểu về điểm số có mặt trên tay mô hình phát hiện mốc. Ở chế độ Video và chế độ phát trực tiếp của Trình nhận dạng cử chỉ, nếu điểm số tự tin về sự hiện diện của bàn tay từ mô hình điểm mốc bàn tay ở bên dưới ngưỡng này, nó sẽ kích hoạt mô hình phát hiện tì tay. Nếu không, một thuật toán theo dõi cử chỉ tay nhẹ được dùng để xác định vị trí của tay để phát hiện mốc tiếp theo. | 0.0 - 1.0 |
0.5 |
|
minTrackingConfidence |
Điểm tin cậy tối thiểu để tính năng theo dõi cử chỉ tay được xem xét thành công. Đây là ngưỡng IoU hộp giới hạn giữa các tay trong khung hiện tại và khung cuối cùng. Ở chế độ Video và chế độ Phát trực tuyến của Trình nhận dạng cử chỉ sẽ kích hoạt tay nếu theo dõi không thành công của bạn. Nếu không, tính năng phát hiện tay sẽ bị bỏ qua. | 0.0 - 1.0 |
0.5 |
|
cannedGesturesClassifierOptions |
Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ soạn trước. Các cử chỉ soạn trước là ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] |
|
|
|
customGesturesClassifierOptions |
Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ tuỳ chỉnh. |
|
|
|
resultListener |
Thiết lập trình nghe kết quả để nhận kết quả phân loại
không đồng bộ khi trình nhận dạng cử chỉ đang ở chế độ phát trực tiếp.
Chỉ sử dụng được khi bạn đặt chế độ chạy thành LIVE_STREAM |
ResultListener |
Không áp dụng | Không áp dụng |
errorListener |
Đặt một trình nghe lỗi (không bắt buộc). | ErrorListener |
Không áp dụng | Không áp dụng |
Chuẩn bị dữ liệu
Trình nhận dạng cử chỉ hoạt động với hình ảnh, tệp video và video phát trực tiếp. Việc cần làm xử lý tiền xử lý đầu vào dữ liệu, bao gồm đổi kích thước, xoay và giá trị chuẩn hoá dữ liệu.
Mã sau đây minh hoạ cách chuyển giao dữ liệu để xử lý. Các đề mục này mẫu bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và lượt phát video trực tuyến.
Bài đăng có hình ảnh
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
Video
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
Sự kiện phát trực tiếp
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Trong
Mã ví dụ về Trình nhận dạng cử chỉ, việc chuẩn bị dữ liệu được xử lý trong
GestureRecognizerHelper.kt
.
Chạy tác vụ
Trình nhận dạng cử chỉ sử dụng recognize
, recognizeForVideo
và recognizeAsync
để kích hoạt suy luận. Đối với tính năng nhận dạng cử chỉ, quá trình này bao gồm
xử lý trước dữ liệu đầu vào, phát hiện bàn tay trong hình ảnh, phát hiện bàn tay
các mốc và nhận dạng cử chỉ tay từ các mốc.
Mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video, và luồng video trực tiếp.
Bài đăng có hình ảnh
val result = gestureRecognizer?.recognize(mpImage)
Video
val timestampMs = i * inferenceIntervalMs gestureRecognizer?.recognizeForVideo(mpImage, timestampMs) ?.let { recognizerResult -> resultList.add(recognizerResult) }
Sự kiện phát trực tiếp
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() gestureRecognizer?.recognizeAsync(mpImage, frameTime)
Xin lưu ý những điều sau:
- Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung nhập cho tác vụ của Trình nhận dạng cử chỉ.
- Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình nhận dạng cử chỉ sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh đầu vào hoặc khung. Để tránh chặn giao diện người dùng, hãy thực thi quá trình xử lý trong một luồng trong nền.
- Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhận dạng cử chỉ sẽ không chặn luồng hiện tại nhưng trả về ngay lập tức. Tham số này sẽ gọi ra kết quả trình nghe đó với kết quả nhận dạng mỗi khi xử lý xong khung đầu vào. Nếu chức năng nhận dạng được gọi khi Trình nhận dạng cử chỉ tác vụ đang bận xử lý một khung khác, tác vụ sẽ bỏ qua khung nhập mới.
Trong
Mã ví dụ về Trình nhận dạng cử chỉ, recognize
, recognizeForVideo
và
Hàm recognizeAsync
được định nghĩa trong
GestureRecognizerHelper.kt
.
Xử lý và hiện kết quả
Trình nhận dạng cử chỉ tạo một đối tượng kết quả phát hiện cử chỉ cho mỗi chạy nhận dạng. Đối tượng kết quả chứa các điểm mốc bàn tay trong toạ độ hình ảnh, địa danh tay trong toạ độ thế giới, tay thuận(tay trái/phải) và bàn tay các loại cử chỉ của tay được phát hiện.
Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:
Kết quả GestureRecognizerResult
chứa 4 thành phần, và mỗi thành phần là một mảng, trong đó mỗi phần tử chứa kết quả đã phát hiện của một bàn tay đã phát hiện.
Tay thuận
Tay thuận cho biết tay trái hay tay phải.
Cử chỉ
Các loại cử chỉ được nhận dạng của tay được phát hiện.
Địa danh
Có 21 điểm mốc kim, mỗi điểm bao gồm các toạ độ
x
,y
vàz
. Chiến lược phát hành đĩa đơn Toạ độx
vày
được chuẩn hoá thành [0, 1, 1] theo chiều rộng của hình ảnh và chiều cao tương ứng. Toạ độz
biểu thị độ sâu của điểm mốc, với độ sâu ở cổ tay là điểm gốc. Giá trị càng nhỏ thì là đến máy ảnh. Độ lớn củaz
có cùng tỷ lệ vớix
Điểm mốc Thế giới
Các mốc 21 kim đồng hồ cũng được thể hiện trên toạ độ thế giới. Mỗi mốc bao gồm
x
,y
vàz
, thể hiện các toạ độ 3D thực tế trong mét có gốc toạ độ ở tâm hình học của kim đồng hồ.
GestureRecognizerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Gestures:
Categories #0:
score : 0.76893
categoryName : Thumb_Up
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
Các hình ảnh sau đây minh hoạ kết quả của tác vụ:
Trong
Mã ví dụ về Trình nhận dạng cử chỉ, lớp GestureRecognizerResultsAdapter
trong phần tử
GestureRecognizerResultsAdapter.kt
sẽ xử lý kết quả.