Với nhiệm vụ Trình nhận dạng cử chỉ MediaPipe, bạn có thể nhận dạng các cử chỉ của tay theo thời gian thực và cung cấp kết quả cử chỉ tay được nhận dạng và các điểm mốc của bàn tay được phát hiện tay. Các hướng dẫn sau chỉ cho bạn cách sử dụng Trình nhận dạng cử chỉ cho các ứng dụng Python.
Bạn có thể xem công việc này trong thực tế bằng cách xem trang Web bản minh hoạ Dành cho thông tin khác về tính năng, kiểu máy và tuỳ chọn cấu hình của nhiệm vụ này, hãy xem phần Tổng quan.
Ví dụ về mã
Mã ví dụ cho Trình nhận dạng cử chỉ cung cấp cách triển khai hoàn chỉnh việc này công việc bằng Python để bạn tham khảo. Mã này giúp bạn kiểm thử công việc này và hãy bắt đầu xây dựng trình nhận dạng cử chỉ tay của riêng bạn. Bạn có thể xem, chạy và chỉnh sửa ví dụ về Trình nhận dạng cử chỉ mã chỉ bằng trình duyệt web.
Nếu bạn đang triển khai Trình nhận dạng cử chỉ cho Raspberry Pi, hãy tham khảo Ví dụ về Raspberry Pi ứng dụng.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và lập trình dự án cụ thể để sử dụng Trình nhận dạng cử chỉ. Để biết thông tin chung về thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Python.
Gói
Tác vụ Trình nhận dạng cử chỉ MediaPipe cần có gói PyPI mediapipe. Bạn có thể cài đặt và nhập các phần phụ thuộc này bằng đoạn mã sau:
$ python -m pip install mediapipe
Nhập
Nhập các lớp sau để truy cập các chức năng của tác vụ của Trình nhận dạng cử chỉ:
import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision
Mẫu
Tác vụ Trình nhận dạng cử chỉ MediaPipe cần có một gói mô hình đã huấn luyện tương thích với nhiệm vụ này. Để biết thêm thông tin về các mô hình đã đào tạo hiện có cho Trình nhận dạng cử chỉ, hãy xem phần Mô hình để xem tổng quan về nhiệm vụ.
Chọn và tải mô hình xuống rồi lưu trữ mô hình đó trong một thư mục trên máy:
model_path = '/absolute/path/to/gesture_recognizer.task'
Chỉ định đường dẫn của mô hình trong thông số Tên mô hình, như được hiển thị dưới đây:
base_options = BaseOptions(model_asset_path=model_path)
Tạo việc cần làm
Tác vụ Trình nhận dạng cử chỉ MediaPipe sử dụng hàm create_from_options
để thiết lập
công việc. Hàm create_from_options
chấp nhận các giá trị cho cấu hình
để xử lý. Để biết thêm thông tin về các chế độ cấu hình, hãy xem
Tuỳ chọn cấu hình.
Mã sau đây minh hoạ cách tạo và định cấu hình tác vụ này.
Những mẫu này cũng cho thấy các biến thể của quá trình tạo tác vụ đối với hình ảnh, tệp video và luồng video trực tiếp.
Bài đăng có hình ảnh
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the image mode: options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.IMAGE) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Video
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the video mode: options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.VIDEO) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Sự kiện phát trực tiếp
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions GestureRecognizerResult = mp.tasks.vision.GestureRecognizerResult VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the live stream mode: def print_result(result: GestureRecognizerResult, output_image: mp.Image, timestamp_ms: int): print('gesture recognition result: {}'.format(result)) options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.LIVE_STREAM, result_callback=print_result) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Các lựa chọn về cấu hình
Tác vụ này có các lựa chọn cấu hình sau cho các ứng dụng Python:
Tên lựa chọn | Mô tả | Khoảng giá trị | Giá trị mặc định | |
---|---|---|---|---|
running_mode |
Thiết lập chế độ chạy cho tác vụ. Có ba
chế độ: HÌNH ẢNH: Chế độ cho đầu vào một hình ảnh. VIDEO: Chế độ cho các khung đã giải mã của video. LIVE_STREAM: Chế độ phát trực tiếp đầu vào chẳng hạn như từ máy ảnh. Trong chế độ này, ResultsListener phải là để thiết lập trình nghe để nhận kết quả một cách không đồng bộ. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
|
num_hands |
Số lượng tay tối đa có thể phát hiện bằng
GestureRecognizer .
|
Any integer > 0 |
1 |
|
min_hand_detection_confidence |
Điểm tin cậy tối thiểu để phát hiện tay được coi là thành công trong mô hình phát hiện tì tay. | 0.0 - 1.0 |
0.5 |
|
min_hand_presence_confidence |
Điểm số tin cậy tối thiểu về điểm số có mặt trên tay mô hình phát hiện mốc. Ở chế độ Video và chế độ phát trực tiếp của Trình nhận dạng cử chỉ, nếu điểm số tự tin về sự hiện diện của bàn tay từ mô hình điểm mốc bàn tay ở bên dưới ngưỡng này, nó sẽ kích hoạt mô hình phát hiện tì tay. Nếu không, một thuật toán theo dõi cử chỉ tay nhẹ được dùng để xác định vị trí của tay để phát hiện mốc tiếp theo. | 0.0 - 1.0 |
0.5 |
|
min_tracking_confidence |
Điểm tin cậy tối thiểu để tính năng theo dõi cử chỉ tay được xem xét thành công. Đây là ngưỡng IoU hộp giới hạn giữa các tay trong khung hiện tại và khung cuối cùng. Ở chế độ Video và chế độ Phát trực tuyến của Trình nhận dạng cử chỉ sẽ kích hoạt tay nếu theo dõi không thành công của bạn. Nếu không, tính năng phát hiện tay sẽ bị bỏ qua. | 0.0 - 1.0 |
0.5 |
|
canned_gestures_classifier_options |
Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ soạn trước. Các cử chỉ soạn trước là ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] |
|
|
|
custom_gestures_classifier_options |
Các tuỳ chọn để định cấu hình hành vi của thuật toán phân loại cử chỉ tuỳ chỉnh. |
|
|
|
result_callback |
Thiết lập trình nghe kết quả để nhận kết quả phân loại
không đồng bộ khi trình nhận dạng cử chỉ đang ở chế độ phát trực tiếp.
Chỉ sử dụng được khi bạn đặt chế độ chạy thành LIVE_STREAM |
ResultListener |
Không áp dụng | Không áp dụng |
Chuẩn bị dữ liệu
Chuẩn bị dữ liệu đầu vào dưới dạng tệp hình ảnh hoặc mảng numpy, sau đó chuyển đổi tệp đó thành
Đối tượng mediapipe.Image
. Nếu dữ liệu đầu vào của bạn là tệp video hoặc chương trình phát trực tiếp từ
webcam, bạn có thể sử dụng thư viện bên ngoài như
OpenCV để tải các khung đầu vào của bạn dưới dạng numpy
mảng.
Bài đăng có hình ảnh
import mediapipe as mp # Load the input image from an image file. mp_image = mp.Image.create_from_file('/path/to/image') # Load the input image from a numpy array. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
Video
import mediapipe as mp # Use OpenCV’s VideoCapture to load the input video. # Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS # You’ll need it to calculate the timestamp for each frame. # Loop through each frame in the video using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
Sự kiện phát trực tiếp
import mediapipe as mp # Use OpenCV’s VideoCapture to start capturing from the webcam. # Create a loop to read the latest frame from the camera using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
Chạy tác vụ
Trình nhận dạng cử chỉ sử dụng các mã nhận dạng, nhận biết, nhận diện, nhận diện, không đồng bộ để kích hoạt suy luận. Đối với tính năng nhận dạng cử chỉ, quá trình này bao gồm xử lý trước dữ liệu đầu vào, phát hiện bàn tay trong hình ảnh, phát hiện bàn tay các mốc và nhận dạng cử chỉ tay từ các mốc.
Mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ.
Bài đăng có hình ảnh
# Perform gesture recognition on the provided single image. # The gesture recognizer must be created with the image mode. gesture_recognition_result = recognizer.recognize(mp_image)
Video
# Perform gesture recognition on the provided single image. # The gesture recognizer must be created with the video mode. gesture_recognition_result = recognizer.recognize_for_video(mp_image, frame_timestamp_ms)
Sự kiện phát trực tiếp
# Send live image data to perform gesture recognition. # The results are accessible via the `result_callback` provided in # the `GestureRecognizerOptions` object. # The gesture recognizer must be created with the live stream mode. recognizer.recognize_async(mp_image, frame_timestamp_ms)
Xin lưu ý những điều sau:
- Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp cho tác vụ Trình nhận dạng cử chỉ dấu thời gian của khung nhập.
- Khi chạy trong hình ảnh hoặc mô hình video, tác vụ Trình nhận dạng cử chỉ sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh đầu vào hoặc khung.
- Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhận dạng cử chỉ sẽ không chặn luồng hiện tại nhưng trả về ngay lập tức. Tham số này sẽ gọi ra kết quả trình nghe đó với kết quả nhận dạng mỗi khi xử lý xong khung đầu vào. Nếu chức năng nhận dạng được gọi khi Trình nhận dạng cử chỉ tác vụ đang bận xử lý một khung khác, tác vụ sẽ bỏ qua đầu vào mới khung.
Để biết ví dụ đầy đủ về cách chạy Trình nhận dạng cử chỉ trên một hình ảnh, hãy xem mã ví dụ để biết thông tin chi tiết.
Xử lý và hiện kết quả
Trình nhận dạng cử chỉ tạo một đối tượng kết quả phát hiện cử chỉ cho mỗi chạy nhận dạng. Đối tượng kết quả chứa các điểm mốc bàn tay trong toạ độ hình ảnh, địa danh tay trong toạ độ thế giới, tay thuận(tay trái/phải) và bàn tay các loại cử chỉ của tay được phát hiện.
Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:
Kết quả GestureRecognizerResult
chứa 4 thành phần, và mỗi thành phần là một mảng, trong đó mỗi phần tử chứa kết quả đã phát hiện của một bàn tay đã phát hiện.
Tay thuận
Tay thuận cho biết tay trái hay tay phải.
Cử chỉ
Các loại cử chỉ được nhận dạng của tay được phát hiện.
Địa danh
Có 21 điểm mốc kim, mỗi điểm bao gồm các toạ độ
x
,y
vàz
. Chiến lược phát hành đĩa đơn Toạ độx
vày
được chuẩn hoá thành [0, 1, 1] theo chiều rộng của hình ảnh và chiều cao tương ứng. Toạ độz
biểu thị độ sâu của điểm mốc, với độ sâu ở cổ tay là điểm gốc. Giá trị càng nhỏ thì là đến máy ảnh. Độ lớn củaz
có cùng tỷ lệ vớix
Điểm mốc Thế giới
Các mốc 21 kim đồng hồ cũng được thể hiện trên toạ độ thế giới. Mỗi mốc bao gồm
x
,y
vàz
, thể hiện các toạ độ 3D thực tế trong mét có gốc toạ độ ở tâm hình học của kim đồng hồ.
GestureRecognizerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Gestures:
Categories #0:
score : 0.76893
categoryName : Thumb_Up
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
Các hình ảnh sau đây minh hoạ kết quả của tác vụ:
Mã ví dụ về Trình nhận dạng cử chỉ minh hoạ cách hiển thị nhận dạng đó kết quả được trả về từ tác vụ, hãy xem mã ví dụ để biết thông tin chi tiết.