Tác vụ Trình phát hiện khuôn mặt MediaPipe cho phép bạn phát hiện khuôn mặt trong hình ảnh hoặc video. Bạn có thể sử dụng tác vụ này để xác định vị trí khuôn mặt và các đặc điểm trên khuôn mặt trong một khung hình. Nhiệm vụ này sử dụng mô hình học máy (ML) hoạt động với hình ảnh đơn lẻ hoặc luồng hình ảnh liên tục. Tác vụ này sẽ xuất ra vị trí khuôn mặt, cùng với các điểm chính trên khuôn mặt sau: mắt trái, mắt phải, đầu mũi, miệng, điểm giữa mắt trái và điểm giữa mắt phải.
Bạn có thể xem mã mẫu được mô tả trong các hướng dẫn này trên GitHub. Để biết thêm thông tin về các tính năng, mô hình và tuỳ chọn cấu hình của tác vụ này, hãy xem phần Tổng quan.
Ví dụ về mã
Mã mẫu về Tác vụ MediaPipe là cách triển khai đơn giản của ứng dụng Trình phát hiện khuôn mặt dành cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để phát hiện khuôn mặt trong luồng video liên tục. Ứng dụng cũng có thể phát hiện khuôn mặt trong hình ảnh và video trong thư viện của thiết bị.
Bạn có thể sử dụng ứng dụng này làm điểm xuất phát cho ứng dụng Android của riêng mình hoặc tham khảo ứng dụng này khi sửa đổi một ứng dụng hiện có. Mã ví dụ về Trình phát hiện khuôn mặt được lưu trữ trên GitHub.
Tải mã xuống
Hướng dẫn sau đây cho bạn biết cách tạo bản sao cục bộ của mã ví dụ bằng công cụ dòng lệnh git.
Cách tải mã mẫu xuống:
- Sao chép kho lưu trữ git bằng lệnh sau:
git clone https://github.com/google-ai-edge/mediapipe-samples
- Bạn có thể định cấu hình thực thể git để sử dụng tính năng kiểm tra thư mục thưa, nhờ đó, bạn chỉ có các tệp cho ứng dụng mẫu Trình phát hiện khuôn mặt:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_detector/android
Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio và chạy ứng dụng. Để biết hướng dẫn, hãy xem Hướng dẫn thiết lập cho Android.
Các thành phần chính
Các tệp sau đây chứa mã quan trọng cho ứng dụng ví dụ về tính năng phát hiện khuôn mặt này:
- FaceDetectorHelper.kt – khởi chạy trình phát hiện khuôn mặt và xử lý mô hình cũng như lựa chọn uỷ quyền.
- CameraFragment.kt – Xử lý máy ảnh của thiết bị và xử lý dữ liệu đầu vào hình ảnh và video.
- GalleryFragment.kt – Tương tác với
OverlayView
để hiển thị hình ảnh hoặc video đầu ra. - OverlayView.kt – Triển khai màn hình có hộp giới hạn cho khuôn mặt được phát hiện.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và dự án mã dành riêng cho việc sử dụng Trình phát hiện khuôn mặt. Để biết thông tin chung về cách thiết lập môi trường phát triển cho việc sử dụng các tác vụ MediaPipe, bao gồm cả các yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Android.
Phần phụ thuộc
Tác vụ Trình phát hiện khuôn mặt sử dụng thư viện com.google.mediapipe:tasks-vision
. Thêm phần phụ thuộc này vào tệp build.gradle
của ứng dụng Android:
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
Mẫu
Tác vụ Trình phát hiện khuôn mặt MediaPipe yêu cầu một gói mô hình đã huấn luyện tương thích với tác vụ này. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có cho Trình phát hiện khuôn mặt, hãy xem phần Mô hình trong phần tổng quan về tác vụ.
Chọn và tải mô hình xuống, sau đó lưu mô hình đó trong thư mục dự án:
<dev-project-root>/src/main/assets
Chỉ định đường dẫn của mô hình trong tham số ModelAssetPath
. Trong mã mẫu, mô hình được xác định trong tệp FaceDetectorHelper.kt
:
val modelName = "face_detection_short_range.tflite"
baseOptionsBuilder.setModelAssetPath(modelName)
Tạo việc cần làm
Tác vụ Trình phát hiện khuôn mặt MediaPipe sử dụng hàm createFromOptions()
để thiết lập tác vụ. Hàm createFromOptions()
chấp nhận các giá trị cho các tuỳ chọn cấu hình. Để biết thêm thông tin về các tuỳ chọn cấu hình, hãy xem phần Tuỳ chọn cấu hình.
Trình phát hiện khuôn mặt hỗ trợ các loại dữ liệu đầu vào sau: ảnh tĩnh, tệp video và luồng video trực tiếp. Bạn cần chỉ định chế độ chạy tương ứng với loại dữ liệu đầu vào khi tạo tác vụ. Chọn thẻ tương ứng với loại dữ liệu đầu vào để xem cách tạo tác vụ và chạy quy trình suy luận.
Hình ảnh
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Video
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Sự kiện phát trực tiếp
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Việc triển khai mã ví dụ về Trình phát hiện khuôn mặt cho phép người dùng chuyển đổi giữa các chế độ xử lý. Phương pháp này khiến mã tạo tác vụ trở nên phức tạp hơn và có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong hàm setupFaceDetector()
trong tệp FaceDetectorHelper.kt
.
Các lựa chọn về cấu hình
Tác vụ này có các tuỳ chọn cấu hình sau đây cho ứng dụng Android:
Tên tuỳ chọn | Mô tả | Phạm vi giá trị | Giá trị mặc định |
---|---|---|---|
runningMode |
Đặt chế độ chạy cho tác vụ. Có 3 chế độ: HÌNH ẢNH: Chế độ cho dữ liệu đầu vào là một hình ảnh. VIDEO: Chế độ cho các khung hình đã giải mã của video. LIVE_STREAM: Chế độ phát trực tiếp dữ liệu đầu vào, chẳng hạn như từ máy ảnh. Ở chế độ này, bạn phải gọi resultListener để thiết lập trình nghe nhận kết quả một cách không đồng bộ. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
minDetectionConfidence |
Điểm tin cậy tối thiểu để tính năng phát hiện khuôn mặt được coi là thành công. | Float [0,1] |
0.5 |
minSuppressionThreshold |
Ngưỡng tối thiểu không phải là ngưỡng loại bỏ tối đa để tính năng phát hiện khuôn mặt được coi là bị trùng lặp. | Float [0,1] |
0.3 |
resultListener |
Đặt trình nghe kết quả để nhận kết quả phát hiện không đồng bộ khi Trình phát hiện khuôn mặt ở chế độ phát trực tiếp. Chỉ có thể sử dụng khi chế độ chạy được đặt thành LIVE_STREAM . |
N/A |
Not set |
errorListener |
Đặt trình nghe lỗi không bắt buộc. | N/A |
Not set |
Chuẩn bị dữ liệu
Trình phát hiện khuôn mặt hoạt động với hình ảnh, tệp video và luồng video trực tiếp. Tác vụ này xử lý quá trình xử lý trước dữ liệu đầu vào, bao gồm cả việc đổi kích thước, xoay và chuẩn hoá giá trị.
Mã sau đây minh hoạ cách chuyển dữ liệu để xử lý. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và luồng video trực tiếp.
Hình ảnh
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
Video
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
Sự kiện phát trực tiếp
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Trong mã ví dụ về Trình phát hiện khuôn mặt, việc chuẩn bị dữ liệu được xử lý trong tệp FaceDetectorHelper.kt
.
Chạy tác vụ
Tuỳ thuộc vào loại dữ liệu mà bạn đang xử lý, hãy sử dụng phương thức faceDetector.detect...()
dành riêng cho loại dữ liệu đó. Sử dụng detect()
cho từng hình ảnh, detectForVideo()
cho các khung hình trong tệp video và detectAsync()
cho luồng video. Khi bạn đang thực hiện phát hiện trên luồng video, hãy đảm bảo bạn chạy các hoạt động phát hiện trên một luồng riêng biệt để tránh chặn luồng giao diện người dùng.
Các mã mẫu sau đây cho thấy các ví dụ đơn giản về cách chạy Trình phát hiện khuôn mặt trong các chế độ dữ liệu khác nhau:
Hình ảnh
val result = faceDetector.detect(mpImage)
Video
val timestampMs = i * inferenceIntervalMs faceDetector.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
Sự kiện phát trực tiếp
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() faceDetector.detectAsync(mpImage, frameTime)
Xin lưu ý những điều sau:
- Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn phải cung cấp dấu thời gian của khung hình đầu vào cho tác vụ Trình phát hiện khuôn mặt.
- Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình phát hiện khuôn mặt sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh hoặc khung hình đầu vào. Để tránh chặn giao diện người dùng, hãy thực thi quá trình xử lý trong luồng nền.
- Khi chạy ở chế độ phát trực tiếp, tác vụ Trình phát hiện khuôn mặt sẽ trả về ngay lập tức và không chặn luồng hiện tại. Phương thức này sẽ gọi trình nghe kết quả với kết quả phát hiện mỗi khi hoàn tất quá trình xử lý một khung đầu vào. Nếu hàm phát hiện được gọi khi tác vụ Trình phát hiện khuôn mặt đang bận xử lý một khung hình khác, thì tác vụ này sẽ bỏ qua khung hình đầu vào mới.
Trong mã ví dụ về Trình phát hiện khuôn mặt, các hàm detect
, detectForVideo
và detectAsync
được xác định trong tệp FaceDetectorHelper.kt
.
Xử lý và hiển thị kết quả
Trình phát hiện khuôn mặt sẽ trả về một đối tượng FaceDetectorResult
cho mỗi lần chạy quy trình phát hiện. Đối tượng kết quả chứa các hộp giới hạn cho khuôn mặt được phát hiện và điểm tin cậy cho mỗi khuôn mặt được phát hiện.
Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:
FaceDetectionResult:
Detections:
Detection #0:
BoundingBox:
origin_x: 126
origin_y: 100
width: 463
height: 463
Categories:
Category #0:
index: 0
score: 0.9729152917861938
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.18298381567001343
y: 0.2961040139198303
NormalizedKeypoint #1:
x: 0.3302789330482483
y: 0.29289937019348145
... (6 keypoints for each face)
Detection #1:
BoundingBox:
origin_x: 616
origin_y: 193
width: 430
height: 430
Categories:
Category #0:
index: 0
score: 0.9251380562782288
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.6151331663131714
y: 0.3713381886482239
NormalizedKeypoint #1:
x: 0.7460576295852661
y: 0.38825345039367676
... (6 keypoints for each face)
Hình ảnh sau đây cho thấy hình ảnh trực quan của kết quả tác vụ:
Đối với hình ảnh không có hộp giới hạn, hãy xem hình ảnh gốc.
Mã mẫu của Trình phát hiện khuôn mặt minh hoạ cách hiển thị kết quả được trả về từ tác vụ, hãy xem lớp OverlayView
để biết thêm thông tin chi tiết.