Tugas Detektor Wajah MediaPipe memungkinkan Anda mendeteksi wajah dalam gambar atau video. Anda dapat menggunakan tugas ini untuk menemukan wajah dan fitur wajah dalam sebuah {i>frame<i}. Tugas ini menggunakan sebuah model machine learning (ML) yang berfungsi dengan gambar tunggal atau aliran data gambar. Tugas ini menghasilkan lokasi wajah, beserta hal berikut poin utama wajah: mata kiri, mata kanan, ujung hidung, mulut, tragion mata kiri, dan tragion mata kanan.
Contoh kode yang dijelaskan dalam petunjuk ini tersedia nyala GitHub. Untuk informasi selengkapnya tentang kemampuan, model, dan opsi konfigurasi tugas ini, lihat Ringkasan.
Contoh kode
Kode contoh Tugas MediaPipe adalah implementasi sederhana dari Detektor Wajah untuk Android. Contoh ini menggunakan kamera pada perangkat Android fisik untuk mendeteksi wajah dalam streaming video yang berkelanjutan. Aplikasi ini juga dapat mendeteksi wajah dalam gambar dan video dari galeri perangkat.
Anda dapat menggunakan aplikasi ini sebagai titik awal untuk aplikasi Android Anda sendiri, atau merujuk ke sana saat memodifikasi aplikasi yang ada. Kode contoh Detektor Wajah dihosting di GitHub.
Mendownload kode
Petunjuk berikut menunjukkan cara membuat salinan lokal dari contoh kode menggunakan alat command line git.
Untuk mendownload kode contoh:
- Clone repositori git menggunakan perintah berikut:
git clone https://github.com/google-ai-edge/mediapipe-samples
- Secara opsional, konfigurasikan instance git Anda untuk menggunakan checkout sparse,
jadi Anda hanya memiliki file untuk aplikasi contoh Detektor Wajah:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_detector/android
Setelah membuat versi lokal dari kode contoh, Anda dapat mengimpor project ke Android Studio dan menjalankan aplikasi. Untuk mendapatkan petunjuk, lihat Panduan Penyiapan untuk Android.
Komponen utama
File berikut berisi kode penting untuk contoh deteksi wajah ini aplikasi:
- FaceDetectorHelper.kt - Menginisialisasi detektor wajah serta menangani model dan mendelegasikan pilihan.
- CameraFragment.kt - Menangani kamera perangkat dan memproses data input gambar dan video.
- GalleryFragment.kt -
Berinteraksi dengan
OverlayView
untuk menampilkan video atau gambar output. - OverlayView.kt - Menerapkan layar dengan kotak pembatas untuk wajah yang terdeteksi.
Penyiapan
Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan membuat kode project secara khusus untuk menggunakan Pendeteksi Wajah. Untuk informasi umum tentang menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk Android.
Dependensi
Tugas Detektor Wajah menggunakan com.google.mediapipe:tasks-vision
library. Tambahkan dependensi ini ke file build.gradle
aplikasi Android Anda:
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
Model
Tugas Detektor Wajah MediaPipe memerlukan paket model terlatih yang kompatibel dengan untuk melakukan tugas ini. Untuk mengetahui informasi selengkapnya tentang model terlatih yang tersedia untuk Detektor Wajah, lihat ringkasan tugas bagian Model.
Pilih dan download model, lalu simpan dalam direktori project Anda:
<dev-project-root>/src/main/assets
Tentukan jalur model dalam parameter ModelAssetPath
. Di kolom
kode contoh,
model ditentukan di dalam FaceDetectorHelper.kt
file:
val modelName = "face_detection_short_range.tflite"
baseOptionsBuilder.setModelAssetPath(modelName)
Membuat tugas
Tugas Detektor Wajah MediaPipe menggunakan fungsi createFromOptions()
untuk menyiapkan
tugas Anda. Fungsi createFromOptions()
menerima nilai untuk konfigurasi
lainnya. Untuk informasi selengkapnya mengenai opsi konfigurasi, lihat
Opsi konfigurasi.
Pendeteksi Wajah mendukung jenis data input berikut: gambar diam, file video, dan untuk streaming video live. Anda perlu menentukan mode berjalan yang sesuai dengan input saat membuat tugas. Pilih tab yang sesuai dengan tipe data input untuk melihat cara membuat tugas dan menjalankan inferensi.
Gambar
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Video
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Live stream
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
Implementasi kode contoh Detektor Wajah memungkinkan pengguna beralih antar
mode pemrosesan. Pendekatan ini membuat kode
pembuatan tugas lebih rumit dan
mungkin tidak sesuai untuk kasus penggunaan Anda. Anda dapat melihat kode ini di
fungsi setupFaceDetector()
dalam
FaceDetectorHelper.kt
.
Opsi konfigurasi
Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Android:
Nama Opsi | Deskripsi | Rentang Nilai | Nilai Default |
---|---|---|---|
runningMode |
Menetapkan mode berjalan untuk tugas. Ada tiga
moda: IMAGE: Mode untuk input gambar tunggal. VIDEO: Mode untuk frame video yang didekode. LIVE_STREAM: Mode untuk live stream input besar, seperti dari kamera. Dalam mode ini, resultListener harus dipanggil untuk menyiapkan pemroses yang akan menerima hasil secara asinkron. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
minDetectionConfidence |
Skor keyakinan minimum untuk deteksi wajah agar dianggap berhasil. | Float [0,1] |
0.5 |
minSuppressionThreshold |
Ambang batas penyembunyian non-maksimum minimum untuk deteksi wajah agar dianggap tumpang-tindih. | Float [0,1] |
0.3 |
resultListener |
Menyetel pemroses hasil untuk menerima hasil deteksi
secara asinkron saat Detektor Wajah melakukan live stream
mode. Hanya dapat digunakan saat mode lari disetel ke LIVE_STREAM . |
N/A |
Not set |
errorListener |
Menetapkan pemroses error opsional. | N/A |
Not set |
Menyiapkan data
Detektor Wajah berfungsi dengan gambar, file video, dan streaming video live. Tugas menangani pra-pemrosesan input data, termasuk mengubah ukuran, rotasi, dan nilai proses normalisasi.
Kode berikut menunjukkan cara menyerahkan data untuk diproses. Ini contoh mencakup detail tentang cara menangani data dari gambar, file video, dan streaming video.
Gambar
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
Video
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
Live stream
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Di kolom
kode contoh Detektor Wajah, persiapan data ditangani di
FaceDetectorHelper.kt
.
Menjalankan tugas
Tergantung pada jenis data yang Anda kerjakan, gunakan
Metode faceDetector.detect...()
yang spesifik untuk jenis data tersebut. Gunakan
detect()
untuk masing-masing gambar,
detectForVideo()
untuk frame dalam file video, dan
detectAsync()
untuk streaming video. Ketika Anda melakukan deteksi pada
streaming video, pastikan Anda menjalankan deteksi
pada thread terpisah untuk menghindari
memblokir thread antarmuka pengguna.
Contoh kode berikut menunjukkan contoh sederhana tentang cara menjalankan Detektor Wajah dalam mode data yang berbeda-beda ini:
Gambar
val result = faceDetector.detect(mpImage)
Video
val timestampMs = i * inferenceIntervalMs faceDetector.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
Live stream
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() faceDetector.detectAsync(mpImage, frameTime)
Perhatikan hal berikut:
- Saat dalam mode video atau mode live stream, Anda harus memberikan stempel waktu {i>frame<i} input ke tugas Detektor Wajah.
- Saat berjalan dalam mode gambar atau video, tugas Detektor Wajah memblokir utas saat ini hingga selesai memproses gambar input atau {i>frame<i}. Untuk menghindari pemblokiran antarmuka pengguna, jalankan pemrosesan dalam di thread latar belakang.
- Saat berjalan dalam mode live stream, tugas Detektor Wajah akan ditampilkan secara langsung dan tidak memblokir thread saat ini. Fungsi ini akan memanggil hasilnya dengan hasil deteksi setiap kali pemroses selesai memproses frame input. Jika fungsi deteksi dipanggil saat tugas Detektor Wajah sedang sibuk memproses frame lain, tugas akan mengabaikan frame input baru.
Di kolom
Kode contoh Detektor Wajah, detect
, detectForVideo
, dan
Fungsi detectAsync
ditentukan di
FaceDetectorHelper.kt
.
Menangani dan menampilkan hasil
Pendeteksi Wajah menampilkan objek FaceDetectorResult
untuk setiap deteksi
akan dijalankan. Objek hasil berisi kotak pembatas untuk wajah yang terdeteksi dan
tingkat kepercayaan untuk
setiap wajah yang terdeteksi.
Berikut ini contoh data output dari tugas ini:
FaceDetectionResult:
Detections:
Detection #0:
BoundingBox:
origin_x: 126
origin_y: 100
width: 463
height: 463
Categories:
Category #0:
index: 0
score: 0.9729152917861938
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.18298381567001343
y: 0.2961040139198303
NormalizedKeypoint #1:
x: 0.3302789330482483
y: 0.29289937019348145
... (6 keypoints for each face)
Detection #1:
BoundingBox:
origin_x: 616
origin_y: 193
width: 430
height: 430
Categories:
Category #0:
index: 0
score: 0.9251380562782288
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.6151331663131714
y: 0.3713381886482239
NormalizedKeypoint #1:
x: 0.7460576295852661
y: 0.38825345039367676
... (6 keypoints for each face)
Gambar berikut menunjukkan visualisasi output tugas:
Untuk gambar tanpa kotak pembatas, lihat gambar asli.
Kode contoh Detektor Wajah menunjukkan cara menampilkan
hasil yang ditampilkan dari tugas, lihat
OverlayView
untuk detail selengkapnya.