تسمح لك مهمة "التعرّف على الوجوه" برصد الوجوه في صورة أو فيديو. يمكنك استخدام هذه المهمة لتحديد موقع الوجوه وملامح الوجه في إطار معيّن. تستخدِم هذه المهمة نموذج تعلُّم الآلة الذي يعمل مع الصور الفردية أو بثٍ مستمر للصور. تنتج عن المهمة مواقع الوجه، إلى جانب النقاط الرئيسية التالية للوجه: العين اليسرى، والعين اليمنى، وطرف الأنف، والفم، وآفة العين اليسرى، وآفة العين اليمنى.
يتوفّر نموذج الرمز البرمجي الموضّح في هذه التعليمات على GitHub. يمكنك الاطّلاع على هذه المهمة أثناء تنفيذها من خلال مشاهدة هذا العرض التمهيدي لتطبيق الويب . لمزيد من المعلومات عن الإمكانات والنماذج وخيارات الضبط لهذه المهمّة، اطّلِع على نظرة عامة.
مثال على الرمز البرمجي
مثال رمز MediaPipe Tasks هو تطبيق بسيط لنظام التشغيل iOS يتضمّن ميزة "كاشف الوجوه". يستخدم المثال الكاميرا على جهاز Android مادي لرصد الوجوه في بث فيديو مستمر. يمكن للتطبيق أيضًا رصد الوجوه في الصور والفيديوهات من معرض الصور على الجهاز.
يمكنك استخدام التطبيق كنقطة بداية لتطبيقك المتوافق مع نظام التشغيل iOS، أو الرجوع إليه عند تعديل تطبيق حالي. يتم استضافة مثال رمز "كاشف الوجوه" على GitHub.
تنزيل الرمز
توضّح لك التعليمات التالية كيفية إنشاء نسخة محلية من مثال الرمز البرمجي باستخدام أداة سطر الأوامر git.
لتنزيل نموذج الرمز البرمجي:
استنسِخ مستودع git باستخدام الأمر التالي:
git clone https://github.com/google-ai-edge/mediapipe-samples
يمكنك اختياريًا ضبط مثيل git لاستخدام ميزة "الفحص الخفيف"، بحيث تتوفّر لديك فقط ملفات مثال تطبيق "كاشف الوجوه":
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_detector/ios/
بعد إنشاء نسخة محلية من نموذج الرمز البرمجي، يمكنك تثبيت مكتبة مهام MediaPipe وفتح المشروع باستخدام Xcode وتشغيل التطبيق. وللحصول على التعليمات، يُرجى الاطّلاع على دليل الإعداد لنظام التشغيل iOS.
المكوّنات الرئيسية
تحتوي الملفات التالية على الرمز البرمجي المهم لتطبيق مثال "كاشف الوجوه":
- FaceDetectorService.swift: تُستخدَم هذه الوظيفة لإعداد أداة الكشف عن الوجوه واختيار النموذج وتنفيذ الاستنتاجات على بيانات الإدخال.
- CameraViewController: ينفّذ هذا الإجراء واجهة المستخدم لوضع إدخال خلاصة الكاميرا المباشرة ويعرض نتائج الرصد.
- MediaLibraryViewController.swift: تنفِّذ واجهة المستخدم لوضع إدخال ملفّات الصور الثابتة وملفات الفيديو، كما تعرض نتائج رصد الوجوه.
ضبط إعدادات الجهاز
يوضّح هذا القسم الخطوات الرئيسية لإعداد بيئة التطوير و مشاريع الرموز البرمجية لاستخدام "كاشف الوجوه". للحصول على معلومات عامة عن إعداد بيئة التطوير لاستخدام مهام MediaPipe، بما في ذلك متطلبات إصدار النظام الأساسي، يُرجى الاطّلاع على دليل الإعداد لنظام التشغيل iOS.
التبعيات
يستخدم Face Detector مكتبة MediaPipeTasksVision
التي يجب تثبيتها
باستخدام CocoaPods. تتوافق المكتبة مع تطبيقات Swift وObjective-C
ولا تتطلّب أي إعدادات إضافية خاصة باللغة.
للحصول على تعليمات لتثبيت CocoaPods على نظام التشغيل macOS، يُرجى الرجوع إلى دليل تثبيت CocoaPods
.
للحصول على تعليمات حول كيفية إنشاء Podfile
باستخدام المجموعات المتسلسلة اللازمة لتطبيقك، يمكنك الرجوع إلى استخدام
CocoaPods.
أضِف مجموعة MediaPipeTasksVision في Podfile
باستخدام الرمز التالي:
target 'MyFaceDetectorApp' do
use_frameworks!
pod 'MediaPipeTasksVision'
end
إذا كان تطبيقك يتضمّن أهداف اختبار الوحدات، يمكنك الرجوع إلى دليل الإعداد لنظام التشغيل
iOS للحصول على معلومات إضافية عن إعداد
Podfile
.
الطراز
تتطلب مهمة "أداة رصد الوجوه MediaPipe" نموذجًا مدرَّبًا ومتوافقًا مع هذه المهمة. لمزيد من المعلومات عن النماذج المدربة المتاحة لميزة "كاشف الوجوه"، اطّلِع على قسم نماذج ضمن النظرة العامة على المهمة.
اختَر نموذجًا ونزِّله وأضِفه إلى دليل مشروعك باستخدام Xcode. للحصول على تعليمات حول كيفية إضافة ملفات إلى مشروع Xcode، يُرجى الرجوع إلى مقالة إدارة الملفات والمجلدات في مشروع Xcode.
استخدِم السمة BaseOptions.modelAssetPath
لتحديد مسار الوصول إلى النموذج
في حِزمة تطبيقك. للاطّلاع على مثال على الرمز، يُرجى الاطّلاع على القسم التالي.
إنشاء المهمة
مُمْكِنْ إِنْشَاءْ مَهَمَّة مِيزِةْ مِيزِةِ التَّعَرُّفْ عَلَى الْوَجْهْ عَنْ طَرِيقْ دَعْوِةْ أَحَدِ الْإِعْدَادَاتْ. يقبل مُنشئ
FaceDetector(options:)
قيمًا لخيارات الضبط
.
إذا لم تكن بحاجة إلى أداة رصد الوجوه تم إعدادها باستخدام خيارات ضبط مخصّصة، يمكنك استخدام أداة إعداد FaceDetector(modelPath:)
لإنشاء أداة رصد الوجوه باستخدام الخيارات التلقائية. لمزيد من المعلومات حول خيارات الضبط،
يمكنك الاطّلاع على نظرة عامة على الضبط
تتوافق مهمة ميزة "التعرّف على الوجوه" مع 3 أنواع من بيانات الإدخال: الصور الثابتة وملفات الفيديو وعمليات بث الفيديو المباشر. بشكلٍ تلقائي، يبدأ FaceDetector(modelPath:)
مهمة
للصور الثابتة. إذا كنت تريد بدء مهمتك لمعالجة ملفات
الفيديو أو أحداث بث الفيديو المباشر، استخدِم FaceDetector(options:)
لتحديد وضع تشغيل
الفيديو أو البث المباشر. يتطلّب وضع البث المباشر أيضًا خيار إعداد "faceDetectorLiveStreamDelegate
" الإضافي، الذي يتيح
ميزة "رصد الوجوه" عرض نتائج ميزة "التعرّف على الوجوه" بشكل غير متزامن.
اختَر علامة التبويب المناسبة لوضع التشغيل لمعرفة كيفية إنشاء المهمة وتنفيذ الاستنتاج.
Swift
صورة
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .image let faceDetector = try FaceDetector(options: options)
فيديو
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .video let faceDetector = try FaceDetector(options: options)
بث مباشر
import MediaPipeTasksVision // Class that conforms to the `FaceDetectorLiveStreamDelegate` protocol and // implements the method that the face detector calls once it finishes // detecting faces in each input frame. class FaceDetectorResultProcessor: NSObject, FaceDetectorLiveStreamDelegate { func faceDetector( _ faceDetector: FaceDetector, didFinishDetection result: FaceDetectorResult?, timestampInMilliseconds: Int, error: Error?) { // Process the face detection result or errors here. } } let modelPath = Bundle.main.path( forResource: "model", ofType: "tflite") let options = FaceDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .liveStream // Assign an object of the class to the `faceDetectorLiveStreamDelegate` // property. let processor = FaceDetectorResultProcessor() options.faceDetectorLiveStreamDelegate = processor let faceDetector = try FaceDetector(options: options)
Objective-C
صورة
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeImage; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
فيديو
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeVideo; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
بث مباشر
@import MediaPipeTasksVision; // Class that conforms to the `MPPFaceDetectorLiveStreamDelegate` protocol // and implements the method that the face detector calls once it finishes // detecting faces in each input frame. @interface APPFaceDetectorResultProcessor : NSObject@end @implementation APPFaceDetectorResultProcessor - (void)faceDetector:(MPPFaceDetector *)faceDetector didFinishDetectionWithResult:(MPPFaceDetectorResult *)faceDetectorResult timestampInMilliseconds:(NSInteger)timestampInMilliseconds error:(NSError *)error { // Process the face detector result or errors here. } @end NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPFaceDetectorOptions *options = [[MPPFaceDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeLiveStream; // Assign an object of the class to the `faceDetectorLiveStreamDelegate` // property. APPFaceDetectorResultProcessor *processor = [APPFaceDetectorResultProcessor new]; options.faceDetectorLiveStreamDelegate = processor; MPPFaceDetector *faceDetector = [[MPPFaceDetector alloc] initWithOptions:options error:nil];
ملاحظة: إذا كنت تستخدم وضع الفيديو أو وضع البث المباشر، تستخدم ميزة "التعرّف على الوجوه" التتبّع لتجنب تشغيل نموذج الرصد في كل إطار، ما يساعد في تقليل وقت الاستجابة.
خيارات الإعداد
تتضمّن هذه المهمة خيارات الضبط التالية لتطبيقات iOS:
اسم الخيار | الوصف | نطاق القيمة | القيمة التلقائية |
---|---|---|---|
runningMode |
يضبط وضع التشغيل للمهمة. هناك ثلاثة
أوضاع: IMAGE: وضع الإدخالات المكوّنة من صورة واحدة. VIDEO: وضع الإطارات التي تم فك ترميزها في الفيديو LIVE_STREAM: وضع البث المباشر لبيانات المعالجة التي يتم إدخالها، مثل البيانات الواردة من كاميرا في هذا الوضع، يجب استدعاء resultsListener لإعداد أداة استماع لتلقّي النتائج بشكل غير متزامن. |
{RunningMode.image, RunningMode.video, RunningMode.liveStream } |
RunningMode.image |
minDetectionConfidence |
الحد الأدنى لنتيجة الثقة ليعتبر رصد الوجه ناجحًا | Float [0,1] |
0.5 |
minSuppressionThreshold |
الحد الأدنى لمستوى عدم قمع الحد الأقصى لميزة "اكتشاف الوجه" التي يتم اعتبارها متداخلة | Float [0,1] |
0.3 |
إعداد البث المباشر
عند ضبط وضع التشغيل على البث المباشر، تتطلّب "أداة رصد الوجوه"
خيار إعداد faceDetectorLiveStreamDelegate
الإضافي، الذي يتيح
لأداة رصد الوجوه تقديم نتائج الاكتشاف بشكل غير متزامن. ينفِّذ المفوَّض
طريقة
faceDetector(_:didFinishDetection:timestampInMilliseconds:error:)
،
التي يستدعيها "مُعترِف الوجوه" بعد معالجة نتائج رصد الوجوه في
كل إطار.
اسم الخيار | الوصف | نطاق القيمة | القيمة التلقائية |
---|---|---|---|
faceDetectorLiveStreamDelegate |
يتيح هذا الخيار لـ "أداة التعرّف على الوجوه" تلقّي نتائج التعرّف على الوجوه بشكل غير متزامن
في وضع البث المباشر. يجب أن تنفّذ الفئة التي تم ضبط مثيلها على هذه السمة faceDetector(_:didFinishDetection:timestampInMilliseconds:error:)
الأسلوب. |
لا تنطبق | لم يتم ضبط الوضع |
تجهيز البيانات
عليك تحويل الصورة أو الإطار المُدخل إلى عنصر MPImage
قبل
إرساله إلى "كاشف الوجوه". يدعم MPImage
أنواعًا مختلفة من تنسيقات الصور في iOS، ويمكن استخدامها في أي وضع تشغيل للاستنتاج. لمزيد من
المعلومات عن MPImage
، يُرجى الرجوع إلى MPImage API.
اختَر تنسيق صورة لنظام التشغيل iOS استنادًا إلى حالة الاستخدام ووضع التشغيل الذي
يتطلّبه تطبيقك.ويقبل MPImage
تنسيقات الصور UIImage
وCVPixelBuffer
وCMSampleBuffer
على أجهزة iOS.
UIImage
التنسيق UIImage
مناسب تمامًا لأوضاع التشغيل التالية:
الصور: يمكن تحويل الصور من حِزمة تطبيق أو معرض مستخدم أو نظام ملفات بتنسيق
UIImage
إلى كائنMPImage
.الفيديوهات: استخدِم AVAssetImageGenerator لاستخراج لقطات الفيديو بتنسيق CGImage ، ثم حوِّلها إلى صور
UIImage
.
Swift
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(uiImage: image)
Objective-C
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
في هذا المثال، يتم إعداد MPImage
باستخدام الاتجاه التلقائي
UIImage.Orientation.Up. يمكنك إعداد MPImage
باستخدام أي من قيم
UIImage.Orientation
المسموح بها. لا تتيح ميزة "مُعترِف الوجوه" استخدام الاتجاهات المُعكَّفة، مثل .upMirrored
،
.downMirrored
، .leftMirrored
، .rightMirrored
.
لمزيد من المعلومات حول UIImage
، يُرجى الرجوع إلى مستندات مطوّري تطبيقات Apple المتعلّقة بـ UIImage
.
CVPixelBuffer
تنسيق CVPixelBuffer
مناسب تمامًا للتطبيقات التي تُنشئ إطارات
وتستخدِم إطار عمل CoreImage
في iOS للمعالجة.
التنسيق CVPixelBuffer
مناسب تمامًا لأوضاع التشغيل التالية:
الصور: يمكن إرسال التطبيقات التي تنشئ صورًا بتنسيق
CVPixelBuffer
بعد إجراء بعض المعالجة باستخدام إطار عملCoreImage
في نظام التشغيل iOS إلى "مُعترِف الوجوه" في وضع تشغيل الصور.الفيديوهات: يمكن تحويل إطارات الفيديو إلى تنسيق
CVPixelBuffer
لمعالجتها، ثم إرسالها إلى ميزة "كاشف الوجوه" في وضع الفيديو.البث المباشر: قد يتم تحويل التطبيقات التي تستخدم كاميرا iOS لإنشاء اللقطات إلى تنسيق
CVPixelBuffer
لمعالجتها قبل إرسالها إلى أداة "كاشف الوجوه" في وضع البث المباشر.
Swift
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(pixelBuffer: pixelBuffer)
Objective-C
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
لمزيد من المعلومات عن CVPixelBuffer
، يُرجى الرجوع إلى مستندات "مطوّرو تطبيقات Apple" المتعلقين بـ
CVPixelBuffer.
CMSampleBuffer
يخزّن تنسيق CMSampleBuffer
عيّنات وسائط من نوع وسائط موحّد، وهو مناسب
لوضع تشغيل البث المباشر. يتم إرسال اللقطات المباشرة من كاميرات iOS
بشكل غير متزامن بتنسيق CMSampleBuffer
من خلال iOS
AVCaptureVideoDataOutput.
Swift
// Obtain a CMSampleBuffer. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(sampleBuffer: sampleBuffer)
Objective-C
// Obtain a `CMSampleBuffer`. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
لمزيد من المعلومات حول CMSampleBuffer
، يُرجى الاطّلاع على وثائق مطوّري
برامج Apple CMSampleBuffer.
تنفيذ المهمة
لتشغيل "كاشف الوجوه"، استخدِم طريقة detect()
الخاصة بالوضع المخصّص
للعمل:
- صورة ثابتة:
detect(image:)
- الفيديو:
detect(videoFrame:timestampInMilliseconds:)
- بث مباشر:
detectAsync(image:timestampInMilliseconds:)
يعرض "مُعترِف الوجوه" الوجوه التي تم رصدها داخل الصورة أو الإطار المُدخل.
تعرض نماذج الرموز البرمجية التالية أمثلة بسيطة على كيفية تشغيل "كاشف الوجوه" في أوضاع التشغيل المختلفة التالية:
Swift
صورة
let result = try faceDetector.detect(image: image)
فيديو
let result = try faceDetector.detect( videoFrame: image, timestampInMilliseconds: timestamp)
بث مباشر
try faceDetector.detectAsync( image: image, timestampInMilliseconds: timestamp)
Objective-C
صورة
MPPFaceDetectorResult *result = [faceDetector detectInImage:image error:nil];
فيديو
MPPFaceDetectorResult *result = [faceDetector detectInVideoFrame:image timestampInMilliseconds:timestamp error:nil];
بث مباشر
BOOL success = [faceDetector detectAsyncInImage:image timestampInMilliseconds:timestamp error:nil];
يعرض مثال رمز "كاشف الوجوه" عمليات تنفيذ كلٍّ من هذه الأوضاع
بمزيد من التفصيل detect(image:)
وdetect(videoFrame:timestampInMilliseconds:)
وdetectAsync(image:timestampInMilliseconds:)
. يسمح رمز المثال للمستخدم بالتبديل بين أوضاع المعالجة التي قد لا تكون مطلوبة في حالة الاستخدام.
يُرجى ملاحظة ما يلي:
عند التشغيل في وضع الفيديو أو وضع البث المباشر، يجب أيضًا تقديم الطابع الزمني لإطار الإدخال إلى مهمة "كاشف الوجوه".
عند التشغيل في وضع الصور أو الفيديو، تحظر مهمة ميزة "اكتشاف الوجوه" سلسلة المحادثات الحالية حتى تنتهي من معالجة الصورة أو الإطار الذي تم إدخاله. لتجنُّب حظر سلسلة المحادثات الحالية، نفِّذ المعالجة في سلسلة محادثات خلفية باستخدام إطارَي عمل iOS Dispatch أو NSOperation.
عند التشغيل في وضع البث المباشر، تُعرِض مهمة "كاشف الوجوه" النتائج على الفور ولا تحظر سلسلة المحادثات الحالية. ويُستخدَم الأسلوب
faceDetector(_:didFinishDetection:timestampInMilliseconds:error:)
مع نتيجة ميزة "اكتشاف الوجه" بعد معالجة كل لقطة إدخال. يستدعي "مُعترِف الوجوه" هذه الطريقة بشكل غير متزامن في قائمة انتظار معالجة تسلسلي مخصّصة. لعرض النتائج على واجهة المستخدم، يُرجى إرسال النتائج إلى قائمة الانتظار الرئيسية بعد معالجة النتائج. إذا تم استدعاء الدالةdetectAsync
عندما تكون مهمة "كاشف الوجوه" مشغولة في معالجة ملف ملف آخر، يتجاهل "كاشف الوجوه" ملف الإدخال الجديد.
معالجة النتائج وعرضها
عند تنفيذ الاستنتاج، تُعرِض مهمة "كاشف الوجوه" FaceDetectorResult
عنصرًا يحتوي على المربّعات الحدودية للوجوه التي تم رصدها ودرجة
ثقة لكل وجه تم رصده.
في ما يلي مثال على بيانات الإخراج من هذه المهمة:
FaceDetectionResult:
Detections:
Detection #0:
BoundingBox:
origin_x: 126
origin_y: 100
width: 463
height: 463
Categories:
Category #0:
index: 0
score: 0.9729152917861938
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.18298381567001343
y: 0.2961040139198303
NormalizedKeypoint #1:
x: 0.3302789330482483
y: 0.29289937019348145
... (6 keypoints for each face)
Detection #1:
BoundingBox:
origin_x: 616
origin_y: 193
width: 430
height: 430
Categories:
Category #0:
index: 0
score: 0.9251380562782288
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.6151331663131714
y: 0.3713381886482239
NormalizedKeypoint #1:
x: 0.7460576295852661
y: 0.38825345039367676
... (6 keypoints for each face)
تعرض الصورة التالية عرضًا مرئيًا لمعدّل تكرار المهمة:
للاطّلاع على الصورة بدون مربّعات الحدود، اطّلِع على الصورة الأصلية.
يوضح مثال رمز ميزة "التعرّف على الوجوه" طريقة عرض النتائج. اطّلِع على مثال الرمز البرمجي لمعرفة التفاصيل.