Panduan deteksi wajah untuk Android

Tugas Detektor Wajah MediaPipe memungkinkan Anda mendeteksi wajah dalam gambar atau video. Anda dapat menggunakan tugas ini untuk menemukan wajah dan fitur wajah dalam sebuah {i>frame<i}. Tugas ini menggunakan sebuah model machine learning (ML) yang berfungsi dengan gambar tunggal atau aliran data gambar. Tugas ini menghasilkan lokasi wajah, beserta hal berikut poin utama wajah: mata kiri, mata kanan, ujung hidung, mulut, tragion mata kiri, dan tragion mata kanan.

Contoh kode yang dijelaskan dalam petunjuk ini tersedia nyala GitHub. Untuk informasi selengkapnya tentang kemampuan, model, dan opsi konfigurasi tugas ini, lihat Ringkasan.

Contoh kode

Kode contoh Tugas MediaPipe adalah implementasi sederhana dari Detektor Wajah untuk Android. Contoh ini menggunakan kamera pada perangkat Android fisik untuk mendeteksi wajah dalam streaming video yang berkelanjutan. Aplikasi ini juga dapat mendeteksi wajah dalam gambar dan video dari galeri perangkat.

Anda dapat menggunakan aplikasi ini sebagai titik awal untuk aplikasi Android Anda sendiri, atau merujuk ke sana saat memodifikasi aplikasi yang ada. Kode contoh Detektor Wajah dihosting di GitHub.

Mendownload kode

Petunjuk berikut menunjukkan cara membuat salinan lokal dari contoh kode menggunakan alat command line git.

Untuk mendownload kode contoh:

  1. Clone repositori git menggunakan perintah berikut:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Secara opsional, konfigurasikan instance git Anda untuk menggunakan checkout sparse, jadi Anda hanya memiliki file untuk aplikasi contoh Detektor Wajah:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/face_detector/android
    

Setelah membuat versi lokal dari kode contoh, Anda dapat mengimpor project ke Android Studio dan menjalankan aplikasi. Untuk mendapatkan petunjuk, lihat Panduan Penyiapan untuk Android.

Komponen utama

File berikut berisi kode penting untuk contoh deteksi wajah ini aplikasi:

  • FaceDetectorHelper.kt - Menginisialisasi detektor wajah serta menangani model dan mendelegasikan pilihan.
  • CameraFragment.kt - Menangani kamera perangkat dan memproses data input gambar dan video.
  • GalleryFragment.kt - Berinteraksi dengan OverlayView untuk menampilkan video atau gambar output.
  • OverlayView.kt - Menerapkan layar dengan kotak pembatas untuk wajah yang terdeteksi.

Penyiapan

Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan membuat kode project secara khusus untuk menggunakan Pendeteksi Wajah. Untuk informasi umum tentang menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk Android.

Dependensi

Tugas Detektor Wajah menggunakan com.google.mediapipe:tasks-vision library. Tambahkan dependensi ini ke file build.gradle aplikasi Android Anda:

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

Model

Tugas Detektor Wajah MediaPipe memerlukan paket model terlatih yang kompatibel dengan untuk melakukan tugas ini. Untuk mengetahui informasi selengkapnya tentang model terlatih yang tersedia untuk Detektor Wajah, lihat ringkasan tugas bagian Model.

Pilih dan download model, lalu simpan dalam direktori project Anda:

<dev-project-root>/src/main/assets

Tentukan jalur model dalam parameter ModelAssetPath. Di kolom kode contoh, model ditentukan di dalam FaceDetectorHelper.kt file:

val modelName = "face_detection_short_range.tflite"
baseOptionsBuilder.setModelAssetPath(modelName)

Membuat tugas

Tugas Detektor Wajah MediaPipe menggunakan fungsi createFromOptions() untuk menyiapkan tugas Anda. Fungsi createFromOptions() menerima nilai untuk konfigurasi lainnya. Untuk informasi selengkapnya mengenai opsi konfigurasi, lihat Opsi konfigurasi.

Pendeteksi Wajah mendukung jenis data input berikut: gambar diam, file video, dan untuk streaming video live. Anda perlu menentukan mode berjalan yang sesuai dengan input saat membuat tugas. Pilih tab yang sesuai dengan tipe data input untuk melihat cara membuat tugas dan menjalankan inferensi.

Gambar

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    FaceDetector.FaceDetectorOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinDetectionConfidence(threshold)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()

FaceDetector =
    FaceDetector.createFromOptions(context, options)
    

Video

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    FaceDetector.FaceDetectorOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinDetectionConfidence(threshold)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()

FaceDetector =
    FaceDetector.createFromOptions(context, options)
    

Live stream

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    FaceDetector.FaceDetectorOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinDetectionConfidence(threshold)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()

FaceDetector =
    FaceDetector.createFromOptions(context, options)
    

Implementasi kode contoh Detektor Wajah memungkinkan pengguna beralih antar mode pemrosesan. Pendekatan ini membuat kode pembuatan tugas lebih rumit dan mungkin tidak sesuai untuk kasus penggunaan Anda. Anda dapat melihat kode ini di fungsi setupFaceDetector() dalam FaceDetectorHelper.kt .

Opsi konfigurasi

Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Android:

Nama Opsi Deskripsi Rentang Nilai Nilai Default
runningMode Menetapkan mode berjalan untuk tugas. Ada tiga moda:

IMAGE: Mode untuk input gambar tunggal.

VIDEO: Mode untuk frame video yang didekode.

LIVE_STREAM: Mode untuk live stream input besar, seperti dari kamera. Dalam mode ini, resultListener harus dipanggil untuk menyiapkan pemroses yang akan menerima hasil secara asinkron.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
minDetectionConfidence Skor keyakinan minimum untuk deteksi wajah agar dianggap berhasil. Float [0,1] 0.5
minSuppressionThreshold Ambang batas penyembunyian non-maksimum minimum untuk deteksi wajah agar dianggap tumpang-tindih. Float [0,1] 0.3
resultListener Menyetel pemroses hasil untuk menerima hasil deteksi secara asinkron saat Detektor Wajah melakukan live stream mode. Hanya dapat digunakan saat mode lari disetel ke LIVE_STREAM. N/A Not set
errorListener Menetapkan pemroses error opsional. N/A Not set

Menyiapkan data

Detektor Wajah berfungsi dengan gambar, file video, dan streaming video live. Tugas menangani pra-pemrosesan input data, termasuk mengubah ukuran, rotasi, dan nilai proses normalisasi.

Kode berikut menunjukkan cara menyerahkan data untuk diproses. Ini contoh mencakup detail tentang cara menangani data dari gambar, file video, dan streaming video.

Gambar

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(image).build()
    

Video

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

val argb8888Frame =
    if (frame.config == Bitmap.Config.ARGB_8888) frame
    else frame.copy(Bitmap.Config.ARGB_8888, false)

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(argb8888Frame).build()
    

Live stream

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    

Di kolom kode contoh Detektor Wajah, persiapan data ditangani di FaceDetectorHelper.kt .

Menjalankan tugas

Tergantung pada jenis data yang Anda kerjakan, gunakan Metode faceDetector.detect...() yang spesifik untuk jenis data tersebut. Gunakan detect() untuk masing-masing gambar, detectForVideo() untuk frame dalam file video, dan detectAsync() untuk streaming video. Ketika Anda melakukan deteksi pada streaming video, pastikan Anda menjalankan deteksi pada thread terpisah untuk menghindari memblokir thread antarmuka pengguna.

Contoh kode berikut menunjukkan contoh sederhana tentang cara menjalankan Detektor Wajah dalam mode data yang berbeda-beda ini:

Gambar

val result = faceDetector.detect(mpImage)
    

Video

val timestampMs = i * inferenceIntervalMs

faceDetector.detectForVideo(mpImage, timestampMs)
    .let { detectionResult ->
        resultList.add(detectionResult)
    }
    

Live stream

val mpImage = BitmapImageBuilder(rotatedBitmap).build()
val frameTime = SystemClock.uptimeMillis()

faceDetector.detectAsync(mpImage, frameTime)
    

Perhatikan hal berikut:

  • Saat dalam mode video atau mode live stream, Anda harus memberikan stempel waktu {i>frame<i} input ke tugas Detektor Wajah.
  • Saat berjalan dalam mode gambar atau video, tugas Detektor Wajah memblokir utas saat ini hingga selesai memproses gambar input atau {i>frame<i}. Untuk menghindari pemblokiran antarmuka pengguna, jalankan pemrosesan dalam di thread latar belakang.
  • Saat berjalan dalam mode live stream, tugas Detektor Wajah akan ditampilkan secara langsung dan tidak memblokir thread saat ini. Fungsi ini akan memanggil hasilnya dengan hasil deteksi setiap kali pemroses selesai memproses frame input. Jika fungsi deteksi dipanggil saat tugas Detektor Wajah sedang sibuk memproses frame lain, tugas akan mengabaikan frame input baru.

Di kolom Kode contoh Detektor Wajah, detect, detectForVideo, dan Fungsi detectAsync ditentukan di FaceDetectorHelper.kt .

Menangani dan menampilkan hasil

Pendeteksi Wajah menampilkan objek FaceDetectorResult untuk setiap deteksi akan dijalankan. Objek hasil berisi kotak pembatas untuk wajah yang terdeteksi dan tingkat kepercayaan untuk setiap wajah yang terdeteksi.

Berikut ini contoh data output dari tugas ini:

FaceDetectionResult:
  Detections:
    Detection #0:
      BoundingBox:
        origin_x: 126
        origin_y: 100
        width: 463
        height: 463
      Categories:
        Category #0:
          index: 0
          score: 0.9729152917861938
      NormalizedKeypoints:
        NormalizedKeypoint #0:
          x: 0.18298381567001343
          y: 0.2961040139198303
        NormalizedKeypoint #1:
          x: 0.3302789330482483
          y: 0.29289937019348145
        ... (6 keypoints for each face)
    Detection #1:
      BoundingBox:
        origin_x: 616
        origin_y: 193
        width: 430
        height: 430
      Categories:
        Category #0:
          index: 0
          score: 0.9251380562782288
      NormalizedKeypoints:
        NormalizedKeypoint #0:
          x: 0.6151331663131714
          y: 0.3713381886482239
        NormalizedKeypoint #1:
          x: 0.7460576295852661
          y: 0.38825345039367676
        ... (6 keypoints for each face)

Gambar berikut menunjukkan visualisasi output tugas:

Untuk gambar tanpa kotak pembatas, lihat gambar asli.

Kode contoh Detektor Wajah menunjukkan cara menampilkan hasil yang ditampilkan dari tugas, lihat OverlayView untuk detail selengkapnya.