iOS için yüz algılama rehberi

Yüz Algılayıcı görevi, resimlerdeki veya videodaki yüzleri tespit etmenizi sağlar. Tekliflerinizi otomatikleştirmek ve optimize etmek için bu görev bir çerçevedeki yüzleri ve yüz özelliklerini bulmaktır. Bu görev, Tek bir görüntüyle veya sürekli bir akışla çalışan makine öğrenimi (ML) modeli oluşturuyor. Görev, aşağıdaki yüz anahtarıyla birlikte yüz konumlarını gösterir noktalar: sol göz, sağ göz, burun ucu, ağız, sol göz tragiyonu ve sağ göz çok önemlidir.

Bu talimatlarda açıklanan kod örneğini GitHub'da bulabilirsiniz. Bu Web sayfasını görüntüleyerek bu görevin nasıl yerine getirildiğini demo'ya gidin. Daha fazla özellikleri, modelleri ve yapılandırma seçenekleri hakkında görmek istiyorsanız Genel Bakış.

Kod örneği

MediaPipe Tasks örnek kodu, bir Yüz Dedektörü'nün kullanımı ile ilgili uygulamasını indirin. Örnekte, verileri algılamak için fiziksel bir Android cihazdaki kamera kullanılmaktadır. yüzleri sürekli video akışı sağlar. Uygulama ayrıca resimlerdeki yüzleri algılayabilir ve cihaz galerisinden video ekleyin.

Uygulamayı kendi iOS uygulamanız için bir başlangıç noktası olarak kullanabilir veya buna başvurabilirsiniz mevcut bir uygulamada değişiklik yaparken. Yüz Algılayıcı örnek kodu, GitHub'a gidin.

Kodu indirme

Aşağıdaki talimatlarda, örneğin yerel bir kopyasını nasıl oluşturacağınız gösterilmektedir kodu oluşturmak için git komut satırı aracını kullanın.

Örnek kodu indirmek için:

  1. Aşağıdaki komutu kullanarak git deposunu klonlayın:

    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. İsteğe bağlı olarak, git örneğinizi seyrek ödeme yöntemini kullanacak şekilde yapılandırın. Böylece, yalnızca Yüz Algılayıcı örnek uygulaması için dosyalar:

    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/face_detector/ios/
    

Örnek kodun yerel sürümünü oluşturduktan sonra, MediaPipe görev kitaplığı, Xcode kullanarak projeyi açın ve uygulamayı çalıştırın. Örneğin, iOS için Kurulum Kılavuzu'na bakın.

Temel bileşenler

Aşağıdaki dosyalar, Yüz Dedektörü örneği için önemli kodu içerir uygulama:

  • FaceDetectorService.swift: Algılayıcıyı başlatır, model seçimini işler ve giriş verileri üzerinde çıkarım yapar.
  • CameraViewController: Canlı kamera feed'i giriş modu için kullanıcı arayüzünü uygular ve algılama sonuçlarını görselleştirir.
  • MediaLibraryViewController.swift: Hareketsiz görüntü ve video dosyası giriş modu için kullanıcı arayüzünü uygular ve algılama sonuçlarını görselleştirir.

Kurulum

Bu bölümde, geliştirme ortamınızı ve ayarlarınızı yönetmeyle ilgili Yüz Algılayıcı'yı kullanacak şekilde proje kodlayın. platform sürümü de dahil olmak üzere MediaPipe görevlerini kullanmaya yönelik geliştirme ortamı iOS için kurulum kılavuzuna bakın.

Bağımlılıklar

Yüz Algılayıcı, yüklenmesi gereken MediaPipeTasksVision kitaplığını kullanır CocoaPods kullanıyor. Kitaplık hem Swift hem de Objective-C uygulamalarıyla uyumludur. ve dile özel ek kurulum gerektirmez.

CocoaPods'u macOS'e yükleme talimatları için bkz. CocoaPods kurulum kılavuzuna başvurun. Uygulamanız için gerekli kapsülleri içeren bir Podfile oluşturma talimatlarına için CocoaPods'da bulabilirsiniz.

Aşağıdaki kodu kullanarak MediaPipeTasksVision kapsülünü Podfile bölümüne ekleyin:

target 'MyFaceDetectorApp' do
  use_frameworks!
  pod 'MediaPipeTasksVision'
end

Uygulamanız birim test hedefleri içeriyorsa iOS'i kurma hakkında daha fazla bilgi edinin. Podfile cihazınız.

Model

MediaPipe Yüz Dedektörü görevi, uyumlu olan ve eğitilmiş bir model gerektiriyor. karar veriyorum. Mevcut eğitilmiş modeller hakkında daha fazla bilgi için Yüz Dedektörü için görevlere genel bakışı inceleyin. Modeller bölümünü inceleyin.

Bir model seçip indirin ve Xcode'u kullanarak bu modeli proje dizininize ekleyin. Xcode projenize dosya eklemeyle ilgili talimatlar için bkz. Xcode'daki dosyalar ve klasörler inceleyebilirsiniz.

Modelin yolunu belirtmek için BaseOptions.modelAssetPath özelliğini kullanın daha fazla bilgi edineceksiniz. Kod örneği için sonraki bölüme bakın.

Görevi oluşturma

Yüz Dedektörü görevini, başlatıcılardan birini çağırarak oluşturabilirsiniz. İlgili içeriği oluşturmak için kullanılan FaceDetector(options:) başlatıcı, yapılandırma için değerleri kabul eder seçenekleri vardır.

Özelleştirilmiş yapılandırmayla başlatılan bir Yüz Dedektörü'ne ihtiyacınız yoksa seçeneklerini görmek isterseniz FaceDetector(modelPath:) başlatıcısını kullanarak Yüz Dedektörü'nü varsayılan seçeneklerle birlikte kullanabilirsiniz. Yapılandırma hakkında daha fazla bilgi için Yapılandırmaya Genel Bakış bölümüne göz atın.

Yüz Algılayıcı görevi 3 giriş verisi türünü destekler: hareketsiz resimler, video dosyaları ve canlı video akışları kullanılabilir. FaceDetector(modelPath:) varsayılan olarak özel bir görevdir. Video işlemek için görevinizin başlatılmasını istiyorsanız dosya veya canlı video akışı varsa videoyu belirtmek için FaceDetector(options:) öğesini kullanın veya canlı yayın yapabilirsiniz. Canlı yayın modu ayrıca faceDetectorLiveStreamDelegate yapılandırma seçeneği sunar. Bu seçenek Yüz Dedektörü, yüz algılama sonuçlarını yetki verilen kişiye eşzamansız olarak gönderir.

Görevin nasıl oluşturulacağını görmek için koşu modunuza karşılık gelen sekmeyi seçin ve çıkarım yapın.

Swift

Resim

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "tflite")

let options = FaceDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .image

let faceDetector = try FaceDetector(options: options)
    

Video

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "tflite")

let options = FaceDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .video

let faceDetector = try FaceDetector(options: options)
    

Canlı yayın

import MediaPipeTasksVision

// Class that conforms to the `FaceDetectorLiveStreamDelegate` protocol and
// implements the method that the face detector calls once it finishes
// detecting faces in each input frame.
class FaceDetectorResultProcessor: NSObject, FaceDetectorLiveStreamDelegate {

  func faceDetector(
    _ faceDetector: FaceDetector,
    didFinishDetection result: FaceDetectorResult?,
    timestampInMilliseconds: Int,
    error: Error?) {

    // Process the face detection result or errors here.

  }
}

let modelPath = Bundle.main.path(
  forResource: "model",
  ofType: "tflite")

let options = FaceDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .liveStream

// Assign an object of the class to the `faceDetectorLiveStreamDelegate`
// property.
let processor = FaceDetectorResultProcessor()
options.faceDetectorLiveStreamDelegate = processor

let faceDetector = try FaceDetector(options: options)
    

Objective-C

Resim

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeImage;

MPPFaceDetector *faceDetector =
      [[MPPFaceDetector alloc] initWithOptions:options error:nil];
    

Video

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeVideo;

MPPFaceDetector *faceDetector =
      [[MPPFaceDetector alloc] initWithOptions:options error:nil];
    

Canlı yayın

@import MediaPipeTasksVision;

// Class that conforms to the `MPPFaceDetectorLiveStreamDelegate` protocol
// and implements the method that the face detector calls once it finishes
// detecting faces in each input frame.

@interface APPFaceDetectorResultProcessor : NSObject 

@end

@implementation APPFaceDetectorResultProcessor

-   (void)faceDetector:(MPPFaceDetector *)faceDetector
    didFinishDetectionWithResult:(MPPFaceDetectorResult *)faceDetectorResult
         timestampInMilliseconds:(NSInteger)timestampInMilliseconds
                           error:(NSError *)error {

    // Process the face detector result or errors here.

}

@end

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeLiveStream;

// Assign an object of the class to the `faceDetectorLiveStreamDelegate`
// property.
APPFaceDetectorResultProcessor *processor = [APPFaceDetectorResultProcessor new];
options.faceDetectorLiveStreamDelegate = processor;

MPPFaceDetector *faceDetector =
      [[MPPFaceDetector alloc] initWithOptions:options error:nil];
    

Not: Video modunu veya canlı yayın modunu kullanırsanız Yüz Dedektörü, her karede algılama modelinin tetiklenmesini önleyerek daha fazla dönüşüm elde etmenize gecikmeyi azaltabilir.

Yapılandırma seçenekleri

Bu görev, iOS uygulamaları için aşağıdaki yapılandırma seçeneklerine sahiptir:

Seçenek Adı Açıklama Değer Aralığı Varsayılan Değer
runningMode Görev için çalışma modunu ayarlar. Üç tane var modlar:

. IMAGE: Tek resimli giriş modu.
.
. VIDEO: Bir videonun kodu çözülmüş karelerine yönelik mod.
.
. LIVE_STREAM: Giriş canlı yayını modu kameradan alınan veriler gibi. Bu modda, resultListener, sonuçları almak üzere bir dinleyici ayarlamak için çağrıldı eşzamansız olarak ayarlayabilirsiniz.
{RunningMode.image, RunningMode.video, RunningMode.liveStream} RunningMode.image
minDetectionConfidence Yüz algılamanın başarılı olarak kabul edilmesi için gereken minimum güven puanı. Float [0,1] 0.5
minSuppressionThreshold Yüz algılamanın çakışmış olarak kabul edilmesi için maksimum olmayan minimum engelleme eşiğidir. Float [0,1] 0.3

Canlı yayın yapılandırması

Koşu modu canlı yayın olarak ayarlandığında Yüz Dedektörü için sağlayan ek faceDetectorLiveStreamDelegate yapılandırma seçeneği algılama sonuçlarını eşzamansız olarak teslim etmek için yüz dedektörü kullanır. Delege , faceDetector(_:didFinishDetection:timestampInMilliseconds:error:) yöntem, Yüz algılama özelliğinin, dikkat edin.

Seçenek adı Açıklama Değer Aralığı Varsayılan Değer
faceDetectorLiveStreamDelegate Yüz Dedektörü'nün yüz algılama sonuçlarını eşzamansız olarak almasını sağlar canlı yayın modunda bulabilirsiniz. Örneği bu özelliğe ayarlanan sınıf, faceDetector(_:didFinishDetection:timestampInMilliseconds:error:). yöntemidir. Geçerli değil Ayarlanmadı

Verileri hazırlama

Önce giriş resmini veya çerçeveyi bir MPImage nesnesine dönüştürmeniz gerekiyor Yüz Dedektörü'ne iletebiliriz. MPImage, farklı iOS görsel türlerini destekler ve çıkarım için bunları herhangi bir çalışma modunda kullanabilir. Daha fazla MPImage hakkında bilgi için MPImage API

Kullanım alanınıza ve cihazınızın çalışma moduna göre bir iOS resim biçimi seçin. gerektirir.MPImage, UIImage, CVPixelBuffer ve CMSampleBuffer iOS resim biçimi.

UIImage

UIImage biçimi, aşağıdaki koşu modları için çok uygundur:

  • Resimler: uygulama paketi, kullanıcı galerisi veya dosya sisteminden şu şekilde biçimlendirilmiş resimler: UIImage resim, MPImage nesnesine dönüştürülebilir.

  • Videolar: AVAssetImageGenerator yöntemini kullanın ve CGImage daha sonra bunları UIImage resme dönüştürün.

Swift

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(uiImage: image)
    

Objective-C

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

Örnek, bir MPImage öğesini varsayılan olarak başlatır UIImage.Orientation.Up Yönü. MPImage işlemini, desteklenen herhangi bir UIImage.Orientation değerler. Yüz Algılayıcı, .upMirrored gibi yansıma yönlerini desteklemez. .downMirrored, .leftMirrored, .rightMirrored.

UIImage hakkında daha fazla bilgi için UIImage Apple Developer uygulamasına bakın Dokümanlar.

CVPixelBuffer

CVPixelBuffer biçimi, çerçeve oluşturan uygulamalar için uygundur ve iOS CoreImage'i kullanmanız gerekir işleme çerçevesidir.

CVPixelBuffer biçimi, aşağıdaki koşu modları için çok uygundur:

  • Resimler: Biraz işlemden sonra CVPixelBuffer resim oluşturan uygulamalar çerçevesini kullanan iOS CoreImage çerçevesini kullanarak Yüz Dedektörü'ne resim çalıştırma moduna geçiyorum.

  • Videolar: Video kareleri, video kareleri için CVPixelBuffer biçimine dönüştürülebilir. ve video modunda Yüz Dedektörü'ne gönderilir.

  • canlı yayın: Kare oluşturmak için iOS kamera kullanan uygulamalar dönüştürülebilir gönderilmeden önce işlenmek üzere CVPixelBuffer biçiminde Yüz Algılayıcı canlı yayın modunda.

Swift

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(pixelBuffer: pixelBuffer)
    

Objective-C

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

CVPixelBuffer hakkında daha fazla bilgi için CVPixelBuffer Apple'a bakın Geliştirici Dokümanlar.

CMSampleBuffer

CMSampleBuffer biçimi, tek tip bir medya türünün medya örneklerini depolar ve için son derece uygun. iOS kameralardaki canlı kareler iOS tarafından CMSampleBuffer biçiminde eşzamansız olarak yayınlanır AVCaptureVideoDataOutput.

Swift

// Obtain a CMSampleBuffer.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(sampleBuffer: sampleBuffer)
    

Objective-C

// Obtain a `CMSampleBuffer`.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
    

CMSampleBuffer hakkında daha fazla bilgi için CMSampleBuffer Apple'a bakın Geliştirici Dokümanlar.

Görevi çalıştırma

Yüz Algılayıcı'yı çalıştırmak için atanan seçeneğe özel detect() yöntemini kullanın çalışma modu:

  • Hareketsiz resim: detect(image:)
  • Video: detect(videoFrame:timestampInMilliseconds:)
  • Canlı yayın: detectAsync(image:timestampInMilliseconds:)

Yüz Algılayıcı, giriş görüntüsündeki veya çerçevedeki algılanan yüzleri döndürür.

Aşağıdaki kod örnekleri, Yüz Dedektörü'nün şu farklı koşu modları var:

Swift

Resim

let result = try faceDetector.detect(image: image)
    

Video

let result = try faceDetector.detect(
  videoFrame: image,
  timestampInMilliseconds: timestamp)
    

Canlı yayın

try faceDetector.detectAsync(
  image: image,
  timestampInMilliseconds: timestamp)
    

Objective-C

Resim

MPPFaceDetectorResult *result = [faceDetector detectInImage:image
                                                      error:nil];
    

Video

MPPFaceDetectorResult *result = [faceDetector detectInVideoFrame:image
                                         timestampInMilliseconds:timestamp
                                                           error:nil];
    

Canlı yayın

BOOL success = [faceDetector detectAsyncInImage:image
                        timestampInMilliseconds:timestamp
                                          error:nil];
    

Yüz Algılayıcı kodu örneğinde, bu modlardan her birinin uygulamaları gösterilmektedir. ayrıntılı olarak detect(image:), detect(videoFrame:timestampInMilliseconds:), ve detectAsync(image:timestampInMilliseconds:). Örnek kod, işlem modları arasında geçiş yapmasını sağlar. Bu modlar, kullanımınız için gerekli olmayabilir. dava açın.

Aşağıdakileri göz önünde bulundurun:

  • Video modunda veya canlı yayın modunda çalışırken ayrıca Yüz Algılayıcı görevine giriş karesinin zaman damgası.

  • Resim veya video modunda çalışırken Yüz Dedektörü görevi, öğesini, giriş resmini veya çerçevesini işlemeyi bitirene kadar devam ettirir. Alıcı: mevcut iş parçacığını engellemekten kaçının, işlemeyi arka planda yürütün iOS kullanan iş parçacığı Sevkiyat veya NSOperation çerçeveleri.

  • Canlı yayın modunda çalışırken Yüz Algılayıcı görevi hemen geri dönüyor ve mevcut ileti dizisini engellemez. İçeriği faceDetector(_:didFinishDetection:timestampInMilliseconds:error:) yöntem her giriş karesi işlendikten sonra yüz algılama sonucuyla değiştirilir. İlgili içeriği oluşturmak için kullanılan Yüz Algılayıcı, bu yöntemi özel bir seri üzerinde eşzamansız olarak çağırır sevk sırası oluşturun. Sonuçları kullanıcı arayüzünde görüntülemek için, ana sıraya eklenir. detectAsync Bu işlev, Yüz Dedektörü görevi başka bir öğeyi işlemekle meşgulken çağrılır Yüz Dedektörü, yeni giriş çerçevesini yok sayar.

Sonuçları işleme ve görüntüleme

Çıkarım çalıştırıldığında, Yüz Dedektörü görevi bir FaceDetectorResult döndürür. algılanan yüzler için sınırlayıcı kutuları ve güveni içeren nesne puanına karşılık gelir.

Aşağıda, bu görevdeki çıkış verilerinin bir örneği gösterilmektedir:

FaceDetectionResult:
  Detections:
    Detection #0:
      BoundingBox:
        origin_x: 126
        origin_y: 100
        width: 463
        height: 463
      Categories:
        Category #0:
          index: 0
          score: 0.9729152917861938
      NormalizedKeypoints:
        NormalizedKeypoint #0:
          x: 0.18298381567001343
          y: 0.2961040139198303
        NormalizedKeypoint #1:
          x: 0.3302789330482483
          y: 0.29289937019348145
        ... (6 keypoints for each face)
    Detection #1:
      BoundingBox:
        origin_x: 616
        origin_y: 193
        width: 430
        height: 430
      Categories:
        Category #0:
          index: 0
          score: 0.9251380562782288
      NormalizedKeypoints:
        NormalizedKeypoint #0:
          x: 0.6151331663131714
          y: 0.3713381886482239
        NormalizedKeypoint #1:
          x: 0.7460576295852661
          y: 0.38825345039367676
        ... (6 keypoints for each face)

Aşağıdaki resimde, görev çıkışının görselleştirmesi gösterilmektedir:

Sınırlayıcı kutuları olmayan görüntü için orijinal resme bakın.

Yüz Algılayıcısı örnek kodu, sonuçların nasıl görüntüleneceğini gösterir. Bkz. kod örneğini inceleyin.