借助 MediaPipe 手势识别器任务,您可以实时识别手势,并提供识别出的手势结果和检测到的手部的手势特征。以下说明介绍了如何将手势识别器与 iOS 应用搭配使用。
您可以通过查看网页演示来了解此任务的实际效果。如需详细了解此任务的功能、模型和配置选项,请参阅概览。
代码示例
MediaPipe Tasks 示例代码是 iOS 版手势识别器应用的基本实现。该示例使用 iOS 实体设备上的相机来持续检测手势,还可以使用设备图库中的图片和视频来静态检测手势。
您可以将该应用用作您自己的 iOS 应用的起点,也可以在修改现有应用时参考该应用。手势识别器示例代码托管在 GitHub 上。
下载代码
以下说明介绍了如何使用 git 命令行工具创建示例代码的本地副本。
如需下载示例代码,请执行以下操作:
使用以下命令克隆 Git 代码库:
git clone https://github.com/google-ai-edge/mediapipe-samples
(可选)将您的 Git 实例配置为使用稀疏检出,以便您只保留手势识别器示例应用的文件:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/gesture_recognizer/ios/
创建示例代码的本地版本后,您可以安装 MediaPipe 任务库,使用 Xcode 打开项目并运行应用。如需了解相关说明,请参阅 适用于 iOS 的设置指南。
关键组件
以下文件包含手势识别器示例应用的重要代码:
- GestureRecognizerService.swift:初始化手势识别器、处理模型选择,并对输入数据运行推理。
- CameraViewController.swift:为实时摄像头画面输入模式实现界面,并直观呈现结果。
- MediaLibraryViewController.swift:为静态图片和视频文件输入模式实现界面,并直观呈现结果。
设置
本部分介绍了设置开发环境和编写代码项目以使用手势识别器的关键步骤。如需了解如何设置开发环境以使用 MediaPipe 任务(包括平台版本要求)的一般信息,请参阅 适用于 iOS 的设置指南。
依赖项
手势识别器使用 MediaPipeTasksVision
库,该库必须使用 CocoaPods 安装。该库与 Swift 和 Objective-C 应用兼容,并且无需任何额外的语言专用设置。
如需了解如何在 macOS 上安装 CocoaPods,请参阅 CocoaPods 安装指南。如需了解如何创建包含应用所需 pod 的 Podfile
,请参阅使用 CocoaPods。
使用以下代码在 Podfile
中添加 MediaPipeTasksVision pod:
target 'MyGestureRecognizerApp' do
use_frameworks!
pod 'MediaPipeTasksVision'
end
如果您的应用包含单元测试目标,请参阅 iOS 设置指南,详细了解如何设置 Podfile
。
型号
MediaPipe 手势识别器任务需要与此任务兼容的训练模型。如需详细了解手势识别器可用的经过训练的模型,请参阅任务概览“模型”部分。
选择并下载模型,然后使用 Xcode 将其添加到您的项目目录。 如需了解如何向 Xcode 项目添加文件,请参阅管理 Xcode 项目中的文件和文件夹。
使用 BaseOptions.modelAssetPath
属性指定 App Bundle 中模型的路径。如需查看代码示例,请参阅下一部分。
创建任务
您可以通过调用其某个初始化程序来创建手势识别器任务。GestureRecognizer(options:)
初始化程序接受配置选项的值。
如果您不需要使用自定义配置选项初始化的手势识别器,可以使用 GestureRecognizer(modelPath:)
初始化程序创建使用默认选项的手势识别器。如需详细了解配置选项,请参阅配置概览。
手势识别器任务支持 3 种输入数据类型:静态图片、视频文件和实时视频直播。默认情况下,GestureRecognizer(modelPath:)
会为静态图片初始化任务。如果您希望将任务初始化以处理视频文件或直播视频流,请使用 GestureRecognizer(options:)
指定视频或直播的运行模式。实时流式传输模式还需要一个额外的 gestureRecognizerLiveStreamDelegate
配置选项,通过该选项,手势识别程序能够以异步方式向代理传送手势识别结果。
选择与您的运行模式对应的标签页,了解如何创建任务并运行推理。
Swift
Image
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "gesture_recognizer", ofType: "task") let options = GestureRecognizerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .image options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands let gestureRecognizer = try GestureRecognizer(options: options)
视频
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "gesture_recognizer", ofType: "task") let options = GestureRecognizerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .video options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands let gestureRecognizer = try GestureRecognizer(options: options)
直播
import MediaPipeTasksVision // Class that conforms to the `GestureRecognizerLiveStreamDelegate` protocol and // implements the method that the gesture recognizer calls once it finishes // performing recognizing hand gestures in each input frame. class GestureRecognizerResultProcessor: NSObject, GestureRecognizerLiveStreamDelegate { func gestureRecognizer( _ gestureRecognizer: GestureRecognizer, didFinishRecognition result: GestureRecognizerResult?, timestampInMilliseconds: Int, error: Error?) { // Process the gesture recognizer result or errors here. } } let modelPath = Bundle.main.path( forResource: "gesture_recognizer", ofType: "task") let options = GestureRecognizerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .liveStream options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands // Assign an object of the class to the `gestureRecognizerLiveStreamDelegate` // property. let processor = GestureRecognizerResultProcessor() options.gestureRecognizerLiveStreamDelegate = processor let gestureRecognizer = try GestureRecognizer(options: options)
Objective-C
Image
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"gesture_recognizer" ofType:@"task"]; MPPGestureRecognizerOptions *options = [[MPPGestureRecognizerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeImage; options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands MPPGestureRecognizer *gestureRecognizer = [[MPPGestureRecognizer alloc] initWithOptions:options error:nil];
视频
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"gesture_recognizer" ofType:@"task"]; MPPGestureRecognizerOptions *options = [[MPPGestureRecognizerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeVideo; options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands MPPGestureRecognizer *gestureRecognizer = [[MPPGestureRecognizer alloc] initWithOptions:options error:nil];
直播
@import MediaPipeTasksVision; // Class that conforms to the `MPPGestureRecognizerLiveStreamDelegate` protocol // and implements the method that the gesture recognizer calls once it finishes // performing gesture recognition on each input frame. @interface APPGestureRecognizerResultProcessor : NSObject@end @implementation APPGestureRecognizerResultProcessor - (void)gestureRecognizer:(MPPGestureRecognizer *)gestureRecognizer didFinishRecognitionWithResult:(MPPGestureRecognizerResult *)gestureRecognizerResult timestampInMilliseconds:(NSInteger)timestampInMilliseconds error:(NSError *)error { // Process the gesture recognizer result or errors here. } @end NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"gesture_recognizer" ofType:@"task"]; MPPGestureRecognizerOptions *options = [[MPPGestureRecognizerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeLiveStream; options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands // Assign an object of the class to the `gestureRecognizerLiveStreamDelegate` // property. APPGestureRecognizerResultProcessor *processor = [APPGestureRecognizerResultProcessor new]; options.gestureRecognizerLiveStreamDelegate = processor; MPPGestureRecognizer *gestureRecognizer = [[MPPGestureRecognizer alloc] initWithOptions:options error:nil];
配置选项
此任务针对 iOS 应用提供了以下配置选项:
选项名称 | 说明 | 值范围 | 默认值 | |
---|---|---|---|---|
runningMode |
设置任务的运行模式。有三种模式: IMAGE:单图输入的模式。 视频:视频的解码帧模式。 LIVE_STREAM:输入数据实时流式传输的模式,例如来自摄像头的流式传输模式。在此模式下,必须调用 resultListener 才能设置监听器以异步接收结果。在此模式下, gestureRecognizerLiveStreamDelegate 必须设置为实现 GestureRecognizerLiveStreamDelegate 的类的实例,以异步接收执行手势识别的结果。
|
{RunningMode.image, RunningMode.video, RunningMode.liveStream } |
RunningMode.image |
|
num_hands |
GestureRecognizer 可以检测的手数上限。
|
Any integer > 0 |
1 |
|
min_hand_detection_confidence |
在手掌检测模型中,手检测被视为成功所需的最低置信度得分。 | 0.0 - 1.0 |
0.5 |
|
min_hand_presence_confidence |
手部地标检测模型中手部存在得分的最小置信度得分。在手势识别器的视频模式和直播模式下,如果手部地标模型的手部存在置信度得分低于此阈值,则会触发手掌检测模型。否则,系统会使用轻量级手部跟踪算法来确定手部的位置,以便进行后续地标检测。 | 0.0 - 1.0 |
0.5 |
|
min_tracking_confidence |
手部跟踪被视为成功所需的最低置信度得分。这是当前帧和上一帧中手部之间的边界框 IoU 阈值。在手势识别器的视频模式和流式传输模式下,如果跟踪失败,手势识别器会触发手部检测。否则,系统会跳过手部检测。 | 0.0 - 1.0 |
0.5 |
|
canned_gestures_classifier_options |
用于配置预设手势分类器行为的选项。预设手势为 ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] |
|
|
|
custom_gestures_classifier_options |
用于配置自定义手势分类器行为的选项。 |
|
|
|
result_listener |
将结果监听器设置为在手势识别器处于直播模式时异步接收分类结果。
仅当运行模式设置为 LIVE_STREAM 时才能使用 |
ResultListener |
不适用 | 不适用 |
将运行模式设置为直播时,手势识别器需要额外的 gestureRecognizerLiveStreamDelegate
配置选项,以便手势识别器异步提供手势识别结果。代理必须实现 gestureRecognizer(_:didFinishRecognition:timestampInMilliseconds:error:)
方法,在处理对每个帧执行手势识别的结果后,手势识别器会调用此方法。
选项名称 | 说明 | 值范围 | 默认值 |
---|---|---|---|
gestureRecognizerLiveStreamDelegate |
让手势识别器能够在直播模式下异步接收手势识别结果。实例设为此属性的类必须实现 gestureRecognizer(_:didFinishRecognition:timestampInMilliseconds:error:) 方法。 |
不适用 | 未设置 |
准备数据
您需要先将输入图片或帧转换为 MPImage
对象,然后才能将其传递给手势识别器。MPImage
支持不同类型的 iOS 图片格式,并且可以在任何运行模式下使用这些格式进行推理。如需详细了解 MPImage
,请参阅 MPImage API。
根据您的用例和应用所需的运行模式选择 iOS 映像格式。MPImage
接受 UIImage
、CVPixelBuffer
和 CMSampleBuffer
iOS 映像格式。
UIImage
UIImage
格式非常适合以下运行模式:
图片:可以将来自 app bundle、用户图库或文件系统中的图片转换为
UIImage
图片格式。MPImage
对象视频:使用 AVAssetImageGenerator 将视频帧提取为 CGImage 格式,然后将其转换为
UIImage
图片。
Swift
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(uiImage: image)
Objective-C
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
该示例使用默认的 UIImage.Orientation.Up 方向初始化 MPImage
。您可以使用任何受支持的 UIImage.Orientation 值初始化 MPImage
。手势识别器不支持镜像屏幕方向,例如 .upMirrored
、.downMirrored
、.leftMirrored
、.rightMirrored
。
如需详细了解 UIImage
,请参阅 UIImage Apple 开发者文档。
CVPixelBuffer
CVPixelBuffer
格式非常适合生成帧并使用 iOS CoreImage 框架进行处理的应用。
CVPixelBuffer
格式非常适合以下运行模式:
图片:使用 iOS 的
CoreImage
框架进行一些处理后生成CVPixelBuffer
图片的应用可以在图片运行模式下将其发送到手势识别器。视频:视频帧可以转换为
CVPixelBuffer
格式以进行处理,然后发送到视频模式下的手势识别器。直播:使用 iOS 相机生成帧的应用可能会先转换为
CVPixelBuffer
格式进行处理,然后再以直播模式发送到手势识别器。
Swift
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(pixelBuffer: pixelBuffer)
Objective-C
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
如需详细了解 CVPixelBuffer
,请参阅 CVPixelBuffer Apple 开发者文档。
CMSampleBuffer
CMSampleBuffer
格式用于存储统一媒体类型的媒体样本,非常适合直播运行模式。iOS 摄像头的实时帧由 iOS AVCaptureVideoDataOutput 以 CMSampleBuffer
格式异步传送。
Swift
// Obtain a CMSampleBuffer. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(sampleBuffer: sampleBuffer)
Objective-C
// Obtain a `CMSampleBuffer`. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
如需详细了解 CMSampleBuffer
,请参阅 CMSampleBuffer Apple 开发者文档。
运行任务
如需运行手势识别器,请使用指定的运行模式专用的 recognize()
方法:
- 静态图片:
recognize(image:)
- 视频:
recognize(videoFrame:timestampInMilliseconds:)
- 直播:
recognizeAsync(image:timestampInMilliseconds:)
以下代码示例显示了如何在这些不同的运行模式下运行手势识别程序的基本示例:
Swift
Image
let result = try gestureRecognizer.recognize(image: image)
视频
let result = try gestureRecognizer.recognize( videoFrame: image, timestampInMilliseconds: timestamp)
直播
try gestureRecognizer.recognizeAsync( image: image, timestampInMilliseconds: timestamp)
Objective-C
Image
MPPGestureRecognizerResult *result = [gestureRecognizer recognizeImage:mppImage error:nil];
视频
MPPGestureRecognizerResult *result = [gestureRecognizer recognizeVideoFrame:image timestampInMilliseconds:timestamp error:nil];
直播
BOOL success = [gestureRecognizer recognizeAsyncImage:image timestampInMilliseconds:timestamp error:nil];
示例代码允许用户在处理模式之间切换,但您的用例可能不需要这样做。
请注意以下几点:
在视频模式或直播模式下运行时,您还必须向手势识别器任务提供输入帧的时间戳。
在图片或视频模式下运行时,手势识别器任务会阻塞当前线程,直到其处理完输入图片或帧为止。为避免阻塞当前线程,请使用 iOS Dispatch 或 NSOperation 框架在后台线程中执行处理。
在直播模式下运行时,手势识别器任务会立即返回,并且不会阻塞当前线程。它会在处理每个输入帧后,使用手势识别结果调用
gestureRecognizer(_:didFinishRecognition:timestampInMilliseconds:error:)
方法。手势识别器会在专用串行调度队列上异步调用此方法。如需在界面上显示结果,请在处理结果后将结果分派到主队列。如果在手势识别器任务忙于处理其他帧时调用recognizeAsync
函数,手势识别器会忽略新的输入帧。
处理和显示结果
运行推理后,手势识别器任务会返回一个 GestureRecognizerResult
,其中包含图像坐标中的手地标、世界坐标中的手地标、手的左右手性以及检测到的手的手势类别。
以下示例展示了此任务的输出数据:
生成的 GestureRecognizerResult
包含四个组件,每个组件都是一个数组,其中每个元素都包含单个检测到的手的检测结果。
惯用手
惯用手表示检测到的手是左手还是右手。
手势
检测到的手的已识别手势类别。
地标
这里有 21 个手形标志,每个标志由
x
、y
和z
坐标组成。x
和y
坐标分别按图片宽度和高度归一化为 [0.0, 1.0]。z
坐标表示地标深度,其中手腕处的深度为原点。值越小,地标离相机越近。z
的震级使用的标度与x
大致相同。世界地标
21 个手形地标也以世界坐标显示。每个地标均由
x
、y
和z
组成,表示以米为单位的真实 3D 坐标,其原点位于手的几何中心。
GestureRecognizerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Gestures:
Categories #0:
score : 0.76893
categoryName : Thumb_Up
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
以下图片显示了任务输出的可视化结果: