Panduan deteksi tempat terkenal wajah untuk Android

Tugas MediaPipe Face Landmarker memungkinkan Anda mendeteksi tanda wajah dan ekspresi wajah pada gambar dan video. Anda dapat menggunakan tugas ini untuk mengidentifikasi ekspresi wajah manusia, menggunakan filter dan efek wajah, serta membuat avatar virtual. Tugas ini menggunakan model machine learning (ML) yang dapat bekerja dengan gambar tunggal atau aliran data gambar. Tugas ini menghasilkan {i>landmark<i} wajah 3 dimensi, blendshape skor (koefisien yang mewakili ekspresi wajah) untuk menyimpulkan detail wajah muncul secara real-time, dan matriks transformasi untuk melakukan transformasi yang diperlukan untuk rendering efek.

Contoh kode yang dijelaskan dalam petunjuk ini tersedia di GitHub. Untuk mengetahui informasi selengkapnya terkait kemampuan, model, dan opsi konfigurasi. tugas ini, lihat Ringkasan.

Contoh kode

Kode contoh Tugas MediaPipe adalah implementasi sederhana dari Face Landmarker untuk Android. Contoh ini menggunakan kamera pada perangkat Android fisik untuk mendeteksi wajah dalam streaming video yang berkelanjutan. Aplikasi ini juga dapat mendeteksi wajah di gambar dan video dari galeri perangkat.

Anda dapat menggunakan aplikasi ini sebagai titik awal untuk aplikasi Android Anda sendiri, atau merujuk ke sana saat memodifikasi aplikasi yang ada. Kode contoh Face Landmarker dihosting di GitHub.

Mendownload kode

Petunjuk berikut menunjukkan cara membuat salinan lokal dari contoh kode menggunakan alat command line git.

Untuk mendownload kode contoh:

  1. Clone repositori git menggunakan perintah berikut:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Secara opsional, konfigurasikan instance git Anda untuk menggunakan checkout sparse, sehingga Anda memiliki hanya file untuk aplikasi contoh Face Landmarker:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/face_landmarker/android
    

Setelah membuat versi lokal dari kode contoh, Anda dapat mengimpor project ke Android Studio dan menjalankan aplikasi. Untuk petunjuk, lihat Panduan Penyiapan untuk Android.

Komponen utama

File berikut berisi kode penting untuk contoh penandaan wajah ini aplikasi:

  • FaceLandmarkerHelper.kt - Melakukan inisialisasi penanda wajah serta menangani model dan delegasi pilihan.
  • CameraFragment.kt - Menangani kamera perangkat dan memproses data input gambar dan video.
  • GalleryFragment.kt - Berinteraksi dengan OverlayView untuk menampilkan gambar atau video output.
  • OverlayView.kt - Mengimplementasikan tampilan dengan mesh wajah untuk wajah yang terdeteksi.

Penyiapan

Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan membuat kode proyek secara khusus untuk menggunakan Face Landmarker. Untuk informasi umum tentang menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk Android.

Dependensi

Tugas Face Landmarker menggunakan library com.google.mediapipe:tasks-vision. Tambah dependensi ini ke file build.gradle aplikasi Android Anda:

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

Model

Tugas MediaPipe Face Landmarker memerlukan paket model terlatih yang kompatibel dengan untuk melakukan tugas ini. Untuk informasi selengkapnya tentang model terlatih yang tersedia untuk Face Landmarker, lihat ringkasan tugas bagian Model.

Pilih dan download model, lalu simpan dalam direktori project Anda:

<dev-project-root>/src/main/assets

Tentukan jalur model dalam parameter ModelAssetPath. Di kolom kode contoh, model didefinisikan dalam FaceLandmarkerHelper.kt file:

baseOptionsBuilder.setModelAssetPath(MP_FACE_LANDMARKER_TASK)

Membuat tugas

Tugas MediaPipe Face Landmarker menggunakan fungsi createFromOptions() untuk menyiapkan tugas Anda. Fungsi createFromOptions() menerima nilai untuk konfigurasi lainnya. Untuk informasi selengkapnya mengenai opsi konfigurasi, lihat Konfigurasi lainnya.

Face Landmarker mendukung jenis data input berikut: gambar diam, video {i>file<i}, dan {i>streaming<i} video langsung. Anda perlu menentukan mode lari sesuai dengan tipe data input Anda saat membuat tugas. Pilih tab untuk jenis data input Anda guna melihat cara membuat tugas dan menjalankan inferensi.

Gambar

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    

Video

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    

Live stream

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    

Implementasi kode contoh Face Landmarker memungkinkan pengguna beralih antar mode pemrosesan. Pendekatan ini membuat kode pembuatan tugas lebih rumit dan mungkin tidak sesuai untuk kasus penggunaan Anda. Anda dapat melihat kode ini di fungsi setupFaceLandmarker() dalam FaceLandmarkerHelper.kt .

Opsi konfigurasi

Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Android:

Nama Opsi Deskripsi Rentang Nilai Nilai Default
runningMode Menetapkan mode berjalan untuk tugas. Ada tiga moda:

IMAGE: Mode untuk input gambar tunggal.

VIDEO: Mode untuk frame video yang didekode.

LIVE_STREAM: Mode untuk live stream input besar, seperti dari kamera. Dalam mode ini, resultListener harus dipanggil untuk menyiapkan pemroses yang akan menerima hasil secara asinkron.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numFaces Jumlah maksimum wajah yang dapat dideteksi oleh FaceLandmarker. Pemulusan hanya diterapkan saat num_faces disetel ke 1. Integer > 0 1
minFaceDetectionConfidence Skor keyakinan minimum deteksi wajah yang akan dianggap berhasil. Float [0.0,1.0] 0.5
minFacePresenceConfidence Skor keyakinan minimum untuk kehadiran wajah skor dalam deteksi penanda wajah. Float [0.0,1.0] 0.5
minTrackingConfidence Skor keyakinan minimum untuk pelacakan wajah untuk dianggap berhasil. Float [0.0,1.0] 0.5
outputFaceBlendshapes Apakah Face Landmarker menghasilkan bentuk perpaduan wajah. Bentuk campuran wajah digunakan untuk merender model wajah 3D. Boolean False
outputFacialTransformationMatrixes Apakah FaceLandmarker menghasilkan output matriks transformasi. FaceLandmarker menggunakan matriks untuk mengubah {i>landmark<i} wajah dari model wajah kanonis ke yang terdeteksi, sehingga pengguna dapat menerapkan efek pada {i>landmark<i} yang terdeteksi. Boolean False
resultListener Menetapkan pemroses hasil untuk menerima hasil landmark secara asinkron saat FaceLandmarker berada dalam mode live stream. Hanya dapat digunakan saat mode lari disetel ke LIVE_STREAM ResultListener N/A
errorListener Menetapkan pemroses error opsional. ErrorListener N/A

Menyiapkan data

Face Landmarker dapat digunakan dengan gambar, file video, dan streaming video live. Tugas menangani pra-pemrosesan input data, termasuk mengubah ukuran, rotasi, dan nilai proses normalisasi.

Kode berikut menunjukkan cara menyerahkan data untuk diproses. Ini contoh mencakup detail tentang cara menangani data dari gambar, file video, dan streaming video.

Gambar

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(image).build()
    

Video

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

val argb8888Frame =
    if (frame.config == Bitmap.Config.ARGB_8888) frame
    else frame.copy(Bitmap.Config.ARGB_8888, false)

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(argb8888Frame).build()
    

Live stream

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    

Dalam kode contoh Face Landmarker, persiapan data ditangani di FaceLandmarkerHelper.kt .

Menjalankan tugas

Tergantung pada jenis data yang Anda kerjakan, gunakan Metode FaceLandmarker.detect...() yang spesifik untuk jenis data tersebut. Gunakan detect() untuk masing-masing gambar, detectForVideo() untuk bingkai dalam file video, dan detectAsync() untuk streaming video. Ketika Anda melakukan deteksi pada streaming video, pastikan Anda menjalankan deteksi pada thread terpisah untuk menghindari memblokir thread antarmuka pengguna.

Contoh kode berikut menunjukkan contoh sederhana tentang cara menjalankan Face Landmarker dalam mode data yang berbeda-beda ini:

Gambar

val result = FaceLandmarker.detect(mpImage)
    

Video

val timestampMs = i * inferenceIntervalMs

FaceLandmarker.detectForVideo(mpImage, timestampMs)
    .let { detectionResult ->
        resultList.add(detectionResult)
    }
    

Live stream

val mpImage = BitmapImageBuilder(rotatedBitmap).build()
val frameTime = SystemClock.uptimeMillis()

FaceLandmarker.detectAsync(mpImage, frameTime)
    

Perhatikan hal berikut:

  • Saat menjalankan dalam mode video atau mode live stream, Anda harus memberikan stempel waktu frame input ke tugas Face Landmarker.
  • Saat dijalankan dalam mode gambar atau video, tugas Face Landmarker akan memblokir utas saat ini hingga selesai memproses gambar atau bingkai input. Kepada menghindari pemblokiran antarmuka pengguna, menjalankan pemrosesan di latar belakang .
  • Saat dijalankan dalam mode live stream, tugas Face Landmarker akan ditampilkan secara langsung dan tidak memblokir thread saat ini. Fungsi ini akan memanggil hasilnya dengan hasil deteksi setiap kali pemroses selesai memproses frame input.

Dalam kode contoh Face Landmarker, detect, detectForVideo, dan Fungsi detectAsync ditentukan di FaceLandmarkerHelper.kt .

Menangani dan menampilkan hasil

Face Landmarker menampilkan objek FaceLandmarkerResult untuk setiap deteksi akan dijalankan. Objek hasil berisi mesh wajah untuk setiap wajah yang terdeteksi, dengan koordinat untuk setiap penanda wajah. Secara opsional, objek hasil juga dapat mengandung bentuk gabungan, yang menunjukkan ekspresi wajah, dan matriks transformasi untuk menerapkan efek wajah pada {i>landmark<i} yang terdeteksi.

Berikut ini contoh data output dari tugas ini:

FaceLandmarkerResult:
  face_landmarks:
    NormalizedLandmark #0:
      x: 0.5971359014511108
      y: 0.485361784696579
      z: -0.038440968841314316
    NormalizedLandmark #1:
      x: 0.3302789330482483
      y: 0.29289937019348145
      z: -0.09489090740680695
    ... (478 landmarks for each face)
  face_blendshapes:
    browDownLeft: 0.8296722769737244
    browDownRight: 0.8096957206726074
    browInnerUp: 0.00035583582939580083
    browOuterUpLeft: 0.00035752105759456754
    ... (52 blendshapes for each face)
  facial_transformation_matrixes:
    [9.99158978e-01, -1.23036895e-02, 3.91213447e-02, -3.70770246e-01]
    [1.66496094e-02,  9.93480563e-01, -1.12779640e-01, 2.27719707e+01]
    ...

Gambar berikut menunjukkan visualisasi output tugas:

Kode contoh Face Landmarker menunjukkan cara menampilkan hasil yang ditampilkan dari tugas, lihat OverlayView untuk detail selengkapnya.