Yüz Algılayıcı görevi, resimlerdeki veya videodaki yüzleri tespit etmenizi sağlar. Tekliflerinizi otomatikleştirmek ve optimize etmek için bu görev bir çerçevedeki yüzleri ve yüz özelliklerini bulmaktır. Bu görev, Tek bir görüntüyle veya sürekli bir akışla çalışan makine öğrenimi (ML) modeli oluşturuyor. Görev, aşağıdaki yüz anahtarıyla birlikte yüz konumlarını gösterir noktalar: sol göz, sağ göz, burun ucu, ağız, sol göz tragiyonu ve sağ göz çok önemlidir.
Bu talimatlarda açıklanan kod örneğini GitHub'da bulabilirsiniz. Bu Web sayfasını görüntüleyerek bu görevin nasıl yerine getirildiğini demo'ya gidin. Daha fazla özellikleri, modelleri ve yapılandırma seçenekleri hakkında görmek istiyorsanız Genel Bakış.
Kod örneği
MediaPipe Tasks örnek kodu, bir Yüz Dedektörü'nün kullanımı ile ilgili uygulamasını indirin. Örnekte, verileri algılamak için fiziksel bir Android cihazdaki kamera kullanılmaktadır. yüzleri sürekli video akışı sağlar. Uygulama ayrıca resimlerdeki yüzleri algılayabilir ve cihaz galerisinden video ekleyin.
Uygulamayı kendi iOS uygulamanız için bir başlangıç noktası olarak kullanabilir veya buna başvurabilirsiniz mevcut bir uygulamada değişiklik yaparken. Yüz Algılayıcı örnek kodu, GitHub'a gidin.
Kodu indirme
Aşağıdaki talimatlarda, örneğin yerel bir kopyasını nasıl oluşturacağınız gösterilmektedir kodu oluşturmak için git komut satırı aracını kullanın.
Örnek kodu indirmek için:
Aşağıdaki komutu kullanarak git deposunu klonlayın:
git clone https://github.com/google-ai-edge/mediapipe-samples
İsteğe bağlı olarak, git örneğinizi seyrek ödeme yöntemini kullanacak şekilde yapılandırın. Böylece, yalnızca Yüz Algılayıcı örnek uygulaması için dosyalar:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_detector/ios/
Örnek kodun yerel sürümünü oluşturduktan sonra, MediaPipe görev kitaplığı, Xcode kullanarak projeyi açın ve uygulamayı çalıştırın. Örneğin, iOS için Kurulum Kılavuzu'na bakın.
Temel bileşenler
Aşağıdaki dosyalar, Yüz Dedektörü örneği için önemli kodu içerir uygulama:
- FaceDetectorService.swift: Algılayıcıyı başlatır, model seçimini işler ve giriş verileri üzerinde çıkarım yapar.
- CameraViewController: Canlı kamera feed'i giriş modu için kullanıcı arayüzünü uygular ve algılama sonuçlarını görselleştirir.
- MediaLibraryViewController.swift: Hareketsiz görüntü ve video dosyası giriş modu için kullanıcı arayüzünü uygular ve algılama sonuçlarını görselleştirir.
Kurulum
Bu bölümde, geliştirme ortamınızı ve ayarlarınızı yönetmeyle ilgili Yüz Algılayıcı'yı kullanacak şekilde proje kodlayın. platform sürümü de dahil olmak üzere MediaPipe görevlerini kullanmaya yönelik geliştirme ortamı iOS için kurulum kılavuzuna bakın.
Bağımlılıklar
Yüz Algılayıcı, yüklenmesi gereken MediaPipeTasksVision
kitaplığını kullanır
CocoaPods kullanıyor. Kitaplık hem Swift hem de Objective-C uygulamalarıyla uyumludur.
ve dile özel ek kurulum gerektirmez.
CocoaPods'u macOS'e yükleme talimatları için bkz. CocoaPods
kurulum kılavuzuna başvurun.
Uygulamanız için gerekli kapsülleri içeren bir Podfile
oluşturma talimatlarına
için
CocoaPods'da bulabilirsiniz.
Aşağıdaki kodu kullanarak MediaPipeTasksVision kapsülünü Podfile
bölümüne ekleyin:
target 'MyFaceDetectorApp' do
use_frameworks!
pod 'MediaPipeTasksVision'
end
Uygulamanız birim test hedefleri içeriyorsa
iOS'i kurma hakkında daha fazla bilgi edinin.
Podfile
cihazınız.
Model
MediaPipe Yüz Dedektörü görevi, uyumlu olan ve eğitilmiş bir model gerektiriyor. karar veriyorum. Mevcut eğitilmiş modeller hakkında daha fazla bilgi için Yüz Dedektörü için görevlere genel bakışı inceleyin. Modeller bölümünü inceleyin.
Bir model seçip indirin ve Xcode'u kullanarak bu modeli proje dizininize ekleyin. Xcode projenize dosya eklemeyle ilgili talimatlar için bkz. Xcode'daki dosyalar ve klasörler inceleyebilirsiniz.
Modelin yolunu belirtmek için BaseOptions.modelAssetPath
özelliğini kullanın
daha fazla bilgi edineceksiniz. Kod örneği için sonraki bölüme bakın.
Görevi oluşturma
Yüz Dedektörü görevini, başlatıcılardan birini çağırarak oluşturabilirsiniz. İlgili içeriği oluşturmak için kullanılan
FaceDetector(options:)
başlatıcı, yapılandırma için değerleri kabul eder
seçenekleri vardır.
Özelleştirilmiş yapılandırmayla başlatılan bir Yüz Dedektörü'ne ihtiyacınız yoksa
seçeneklerini görmek isterseniz FaceDetector(modelPath:)
başlatıcısını kullanarak
Yüz Dedektörü'nü varsayılan seçeneklerle birlikte kullanabilirsiniz. Yapılandırma hakkında daha fazla bilgi için
Yapılandırmaya Genel Bakış bölümüne göz atın.
Yüz Algılayıcı görevi 3 giriş verisi türünü destekler: hareketsiz resimler, video dosyaları
ve canlı video akışları kullanılabilir. FaceDetector(modelPath:)
varsayılan olarak
özel bir görevdir. Video işlemek için görevinizin başlatılmasını istiyorsanız
dosya veya canlı video akışı varsa videoyu belirtmek için FaceDetector(options:)
öğesini kullanın
veya canlı yayın yapabilirsiniz. Canlı yayın modu ayrıca
faceDetectorLiveStreamDelegate
yapılandırma seçeneği sunar. Bu seçenek
Yüz Dedektörü, yüz algılama sonuçlarını yetki verilen kişiye eşzamansız olarak gönderir.
Görevin nasıl oluşturulacağını görmek için koşu modunuza karşılık gelen sekmeyi seçin ve çıkarım yapın.
Swift
Resim
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .image let faceDetector = try FaceDetector(options: options)
Video
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .video let faceDetector = try FaceDetector(options: options)
Canlı yayın
import MediaPipeTasksVision // Class that conforms to the `FaceDetectorLiveStreamDelegate` protocol and // implements the method that the face detector calls once it finishes // detecting faces in each input frame. class FaceDetectorResultProcessor: NSObject, FaceDetectorLiveStreamDelegate { func faceDetector( _ faceDetector: FaceDetector, didFinishDetection result: FaceDetectorResult?, timestampInMilliseconds: Int, error: Error?) { // Process the face detection result or errors here. } } let modelPath = Bundle.main.path( forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .liveStream // Assign an object of the class to the `faceDetectorLiveStreamDelegate` // property. let processor = FaceDetectorResultProcessor() options.faceDetectorLiveStreamDelegate = processor let faceDetector = try FaceDetector(options: options)
Objective-C
Resim
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeImage; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
Video
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeVideo; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
Canlı yayın
@import MediaPipeTasksVision; // Class that conforms to the `MPPFaceDetectorLiveStreamDelegate` protocol // and implements the method that the face detector calls once it finishes // detecting faces in each input frame. @interface APPFaceDetectorResultProcessor : NSObject@end @implementation APPFaceDetectorResultProcessor - (void)faceDetector:(MPPFaceDetector *)faceDetector didFinishDetectionWithResult:(MPPFaceDetectorResult *)faceDetectorResult timestampInMilliseconds:(NSInteger)timestampInMilliseconds error:(NSError *)error { // Process the face detector result or errors here. } @end NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeLiveStream; // Assign an object of the class to the `faceDetectorLiveStreamDelegate` // property. APPFaceDetectorResultProcessor *processor = [APPFaceDetectorResultProcessor new]; options.faceDetectorLiveStreamDelegate = processor; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
Not: Video modunu veya canlı yayın modunu kullanırsanız Yüz Dedektörü, her karede algılama modelinin tetiklenmesini önleyerek daha fazla dönüşüm elde etmenize gecikmeyi azaltabilir.
Yapılandırma seçenekleri
Bu görev, iOS uygulamaları için aşağıdaki yapılandırma seçeneklerine sahiptir:
Seçenek Adı | Açıklama | Değer Aralığı | Varsayılan Değer |
---|---|---|---|
runningMode |
Görev için çalışma modunu ayarlar. Üç tane var
modlar: . IMAGE: Tek resimli giriş modu. . . VIDEO: Bir videonun kodu çözülmüş karelerine yönelik mod. . . LIVE_STREAM: Giriş canlı yayını modu kameradan alınan veriler gibi. Bu modda, resultListener, sonuçları almak üzere bir dinleyici ayarlamak için çağrıldı eşzamansız olarak ayarlayabilirsiniz. |
{RunningMode.image, RunningMode.video, RunningMode.liveStream } |
RunningMode.image |
minDetectionConfidence |
Yüz algılamanın başarılı olarak kabul edilmesi için gereken minimum güven puanı. | Float [0,1] |
0.5 |
minSuppressionThreshold |
Yüz algılamanın çakışmış olarak kabul edilmesi için maksimum olmayan minimum engelleme eşiğidir. | Float [0,1] |
0.3 |
Canlı yayın yapılandırması
Koşu modu canlı yayın olarak ayarlandığında Yüz Dedektörü için
sağlayan ek faceDetectorLiveStreamDelegate
yapılandırma seçeneği
algılama sonuçlarını eşzamansız olarak teslim etmek için yüz dedektörü kullanır. Delege
,
faceDetector(_:didFinishDetection:timestampInMilliseconds:error:)
yöntem,
Yüz algılama özelliğinin,
dikkat edin.
Seçenek adı | Açıklama | Değer Aralığı | Varsayılan Değer |
---|---|---|---|
faceDetectorLiveStreamDelegate |
Yüz Dedektörü'nün yüz algılama sonuçlarını eşzamansız olarak almasını sağlar
canlı yayın modunda
bulabilirsiniz. Örneği bu özelliğe ayarlanan sınıf,
faceDetector(_:didFinishDetection:timestampInMilliseconds:error:) .
yöntemidir. |
Geçerli değil | Ayarlanmadı |
Verileri hazırlama
Önce giriş resmini veya çerçeveyi bir MPImage
nesnesine dönüştürmeniz gerekiyor
Yüz Dedektörü'ne iletebiliriz. MPImage
, farklı iOS görsel türlerini destekler
ve çıkarım için bunları herhangi bir çalışma modunda kullanabilir. Daha fazla
MPImage
hakkında bilgi için
MPImage API
Kullanım alanınıza ve cihazınızın çalışma moduna göre bir iOS resim biçimi seçin.
gerektirir.MPImage
, UIImage
, CVPixelBuffer
ve
CMSampleBuffer
iOS resim biçimi.
UIImage
UIImage
biçimi, aşağıdaki koşu modları için çok uygundur:
Resimler: uygulama paketi, kullanıcı galerisi veya dosya sisteminden şu şekilde biçimlendirilmiş resimler:
UIImage
resim,MPImage
nesnesine dönüştürülebilir.Videolar: AVAssetImageGenerator yöntemini kullanın ve CGImage daha sonra bunları
UIImage
resme dönüştürün.
Swift
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(uiImage: image)
Objective-C
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
Örnek, bir MPImage
öğesini varsayılan olarak başlatır
UIImage.Orientation.Up
Yönü. MPImage
işlemini, desteklenen herhangi bir
UIImage.Orientation
değerler. Yüz Algılayıcı, .upMirrored
gibi yansıma yönlerini desteklemez.
.downMirrored
, .leftMirrored
, .rightMirrored
.
UIImage
hakkında daha fazla bilgi için UIImage Apple Developer uygulamasına bakın
Dokümanlar.
CVPixelBuffer
CVPixelBuffer
biçimi, çerçeve oluşturan uygulamalar için uygundur
ve iOS CoreImage'i kullanmanız gerekir
işleme çerçevesidir.
CVPixelBuffer
biçimi, aşağıdaki koşu modları için çok uygundur:
Resimler: Biraz işlemden sonra
CVPixelBuffer
resim oluşturan uygulamalar çerçevesini kullanan iOSCoreImage
çerçevesini kullanarak Yüz Dedektörü'ne resim çalıştırma moduna geçiyorum.Videolar: Video kareleri, video kareleri için
CVPixelBuffer
biçimine dönüştürülebilir. ve video modunda Yüz Dedektörü'ne gönderilir.canlı yayın: Kare oluşturmak için iOS kamera kullanan uygulamalar dönüştürülebilir gönderilmeden önce işlenmek üzere
CVPixelBuffer
biçiminde Yüz Algılayıcı canlı yayın modunda.
Swift
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(pixelBuffer: pixelBuffer)
Objective-C
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
CVPixelBuffer
hakkında daha fazla bilgi için CVPixelBuffer Apple'a bakın
Geliştirici
Dokümanlar.
CMSampleBuffer
CMSampleBuffer
biçimi, tek tip bir medya türünün medya örneklerini depolar ve
için son derece uygun. iOS kameralardaki canlı kareler
iOS tarafından CMSampleBuffer
biçiminde eşzamansız olarak yayınlanır
AVCaptureVideoDataOutput.
Swift
// Obtain a CMSampleBuffer. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(sampleBuffer: sampleBuffer)
Objective-C
// Obtain a `CMSampleBuffer`. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
CMSampleBuffer
hakkında daha fazla bilgi için CMSampleBuffer Apple'a bakın
Geliştirici
Dokümanlar.
Görevi çalıştırma
Yüz Algılayıcı'yı çalıştırmak için atanan seçeneğe özel detect()
yöntemini kullanın
çalışma modu:
- Hareketsiz resim:
detect(image:)
- Video:
detect(videoFrame:timestampInMilliseconds:)
- Canlı yayın:
detectAsync(image:timestampInMilliseconds:)
Yüz Algılayıcı, giriş görüntüsündeki veya çerçevedeki algılanan yüzleri döndürür.
Aşağıdaki kod örnekleri, Yüz Dedektörü'nün şu farklı koşu modları var:
Swift
Resim
let result = try faceDetector.detect(image: image)
Video
let result = try faceDetector.detect( videoFrame: image, timestampInMilliseconds: timestamp)
Canlı yayın
try faceDetector.detectAsync( image: image, timestampInMilliseconds: timestamp)
Objective-C
Resim
MPPFaceDetectorResult *result = [faceDetector detectInImage:image error:nil];
Video
MPPFaceDetectorResult *result = [faceDetector detectInVideoFrame:image timestampInMilliseconds:timestamp error:nil];
Canlı yayın
BOOL success = [faceDetector detectAsyncInImage:image timestampInMilliseconds:timestamp error:nil];
Yüz Algılayıcı kodu örneğinde, bu modlardan her birinin uygulamaları gösterilmektedir.
ayrıntılı olarak detect(image:)
, detect(videoFrame:timestampInMilliseconds:)
,
ve detectAsync(image:timestampInMilliseconds:)
. Örnek kod,
işlem modları arasında geçiş yapmasını sağlar. Bu modlar, kullanımınız için gerekli olmayabilir.
dava açın.
Aşağıdakileri göz önünde bulundurun:
Video modunda veya canlı yayın modunda çalışırken ayrıca Yüz Algılayıcı görevine giriş karesinin zaman damgası.
Resim veya video modunda çalışırken Yüz Dedektörü görevi, öğesini, giriş resmini veya çerçevesini işlemeyi bitirene kadar devam ettirir. Alıcı: mevcut iş parçacığını engellemekten kaçının, işlemeyi arka planda yürütün iOS kullanan iş parçacığı Sevkiyat veya NSOperation çerçeveleri.
Canlı yayın modunda çalışırken Yüz Algılayıcı görevi hemen geri dönüyor ve mevcut ileti dizisini engellemez. İçeriği
faceDetector(_:didFinishDetection:timestampInMilliseconds:error:)
yöntem her giriş karesi işlendikten sonra yüz algılama sonucuyla değiştirilir. İlgili içeriği oluşturmak için kullanılan Yüz Algılayıcı, bu yöntemi özel bir seri üzerinde eşzamansız olarak çağırır sevk sırası oluşturun. Sonuçları kullanıcı arayüzünde görüntülemek için, ana sıraya eklenir.detectAsync
Bu işlev, Yüz Dedektörü görevi başka bir öğeyi işlemekle meşgulken çağrılır Yüz Dedektörü, yeni giriş çerçevesini yok sayar.
Sonuçları işleme ve görüntüleme
Çıkarım çalıştırıldığında, Yüz Dedektörü görevi bir FaceDetectorResult
döndürür.
algılanan yüzler için sınırlayıcı kutuları ve güveni içeren nesne
puanına karşılık gelir.
Aşağıda, bu görevdeki çıkış verilerinin bir örneği gösterilmektedir:
FaceDetectionResult:
Detections:
Detection #0:
BoundingBox:
origin_x: 126
origin_y: 100
width: 463
height: 463
Categories:
Category #0:
index: 0
score: 0.9729152917861938
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.18298381567001343
y: 0.2961040139198303
NormalizedKeypoint #1:
x: 0.3302789330482483
y: 0.29289937019348145
... (6 keypoints for each face)
Detection #1:
BoundingBox:
origin_x: 616
origin_y: 193
width: 430
height: 430
Categories:
Category #0:
index: 0
score: 0.9251380562782288
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.6151331663131714
y: 0.3713381886482239
NormalizedKeypoint #1:
x: 0.7460576295852661
y: 0.38825345039367676
... (6 keypoints for each face)
Aşağıdaki resimde, görev çıkışının görselleştirmesi gösterilmektedir:
Sınırlayıcı kutuları olmayan görüntü için orijinal resme bakın.
Yüz Algılayıcısı örnek kodu, sonuçların nasıl görüntüleneceğini gösterir. Bkz. kod örneğini inceleyin.