Hướng dẫn phát hiện điểm mốc tư thế cho iOS

Nhiệm vụ Điểm mốc tư thế cho phép bạn phát hiện các địa danh của cơ thể người trong một hình ảnh hoặc video. Bạn có thể sử dụng nhiệm vụ này để xác định vị trí chính của cơ thể, phân tích tư thế, và phân loại các chuyển động. Nhiệm vụ này sử dụng các mô hình học máy (ML) thông qua một video hoặc hình ảnh đơn lẻ. Tác vụ sẽ xuất ra các điểm mốc tạo dáng cơ thể trong hình ảnh và toạ độ trong các toạ độ thế giới 3 chiều.

Các hướng dẫn này chỉ cho bạn cách sử dụng Điểm đánh dấu tư thế bằng ứng dụng iOS. Đoạn mã mẫu được mô tả trong các hướng dẫn này có trên GitHub.

Bạn có thể xem công việc này trong thực tế bằng cách xem trang Web này bản minh hoạ. Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của công việc này, hãy xem Tổng quan.

Ví dụ về mã

Mã ví dụ MediaPipe Tasks là cách triển khai cơ bản của Điểm xác định vị trí Pose dành cho iOS. Ví dụ này sử dụng máy ảnh trên một thiết bị iOS thực để phát hiện phát hiện tư thế trong luồng video liên tục. Ứng dụng này cũng có thể phát hiện các tư thế ở hình ảnh và video từ thư viện trên thiết bị.

Bạn có thể sử dụng ứng dụng này làm điểm khởi đầu cho ứng dụng iOS của riêng mình hoặc tham chiếu đến ứng dụng đó khi sửa đổi ứng dụng hiện có. Mã mẫu của Trình tạo ký hiệu tư thế được lưu trữ trên GitHub.

Tải mã xuống

Các hướng dẫn sau đây chỉ cho bạn cách tạo bản sao trên máy của ví dụ bằng công cụ dòng lệnh git.

Cách tải mã ví dụ xuống:

  1. Sao chép kho lưu trữ git bằng lệnh sau:

    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Bạn có thể định cấu hình thực thể git để sử dụng quy trình thanh toán thưa thớt, vì vậy, bạn có chỉ các tệp cho ứng dụng mẫu Pose GMTer:

    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/pose_landmarker/ios/
    

Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể cài đặt Thư viện nhiệm vụ MediaPipe, hãy mở dự án bằng Xcode rồi chạy ứng dụng. Để hãy xem Hướng dẫn thiết lập cho iOS.

Thành phần chính

Các tệp sau đây chứa mã quan trọng cho ví dụ về Pose Tager ứng dụng:

  • PoseLandmarkerService.swift: Khởi chạy trình đo điểm mốc, xử lý việc lựa chọn mô hình và chạy suy luận đối với dữ liệu đầu vào.
  • CameraViewController: Triển khai giao diện người dùng cho chế độ nhập nguồn cấp dữ liệu camera trực tiếp và trực quan hoá mốc.
  • MediaLibraryViewController.swift: Triển khai giao diện người dùng cho chế độ nhập tệp video và hình ảnh tĩnh và trực quan hoá các mốc.

Thiết lập

Phần này mô tả các bước chính để thiết lập môi trường phát triển và lập trình các dự án để sử dụng Pose GMTer. Để biết thông tin chung về cách thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm cả phiên bản nền tảng hãy xem Hướng dẫn thiết lập cho iOS.

Phần phụ thuộc

Tạo điểm mốc tư thế sử dụng thư viện MediaPipeTasksVision (bạn phải cài đặt thư viện này) bằng cách sử dụng CocoaPods. Thư viện này tương thích với cả ứng dụng Swift và GOAL-C và không yêu cầu thiết lập theo ngôn ngữ cụ thể nào khác.

Để biết hướng dẫn cài đặt CocoaPods trên macOS, hãy tham khảo CocoaPods hướng dẫn cài đặt. Để xem hướng dẫn về cách tạo Podfile với các nhóm cần thiết cho ứng dụng, hãy tham khảo Việc sử dụng CocoaPods.

Thêm nhóm MediaPipeTasksVision vào Podfile bằng mã sau:

target 'MyPoseLandmarkerApp' do
  use_frameworks!
  pod 'MediaPipeTasksVision'
end

Nếu ứng dụng của bạn có mục tiêu kiểm thử đơn vị, hãy tham khảo Hướng dẫn thiết lập dành cho iOS để biết thêm thông tin về cách thiết lập Podfile của bạn.

Mẫu

Tác vụ Tạo điểm mốc MediaPipe Pose cần có một gói đã huấn luyện và tương thích với nhiệm vụ này. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có cho Tạo điểm mốc tư thế, xem tổng quan về tác vụ Mô hình .

Sử dụng download_models.sh tập lệnh để tải các mô hình xuống rồi thêm vào thư mục dự án bằng Xcode. Để hướng dẫn về cách thêm tệp vào dự án Xcode của bạn, hãy tham khảo bài viết Quản lý tệp và các thư mục trong Xcode của bạn dự án.

Sử dụng thuộc tính BaseOptions.modelAssetPath để chỉ định đường dẫn đến mô hình trong gói ứng dụng của bạn. Để xem ví dụ về mã, hãy xem phần tiếp theo.

Tạo việc cần làm

Bạn có thể tạo tác vụ Điểm mốc Pose bằng cách gọi một trong các trình khởi chạy tương ứng. Chiến lược phát hành đĩa đơn Trình khởi chạy PoseLandmarker(options:) chấp nhận các giá trị cho cấu hình .

Nếu bạn không cần khởi chạy Trình xác định tư thế bằng cấu hình tuỳ chỉnh , bạn có thể sử dụng trình khởi tạo PoseLandmarker(modelPath:) để tạo một Tạo điểm mốc với các tuỳ chọn mặc định. Để biết thêm thông tin về cấu hình hãy xem phần Configuration Overview (Tổng quan về cấu hình).

Tác vụ Tạo điểm mốc tư thế hỗ trợ 3 loại dữ liệu đầu vào: ảnh tĩnh, tệp video và luồng video trực tiếp. Theo mặc định, PoseLandmarker(modelPath:) sẽ khởi chạy một đối với ảnh tĩnh. Nếu bạn muốn khởi động tác vụ để xử lý video tệp hoặc luồng video trực tiếp, sử dụng PoseLandmarker(options:) để chỉ định video hoặc phát trực tiếp ở chế độ chạy. Chế độ phát trực tiếp cũng yêu cầu Tuỳ chọn cấu hình poseLandmarkerLiveStreamDelegate, cho phép Tạo điểm mốc để cung cấp kết quả phát hiện mốc tạo tư thế cho người được uỷ quyền một cách không đồng bộ.

Chọn thẻ tương ứng với chế độ chạy của bạn để xem cách tạo tác vụ và chạy suy luận.

Swift

Bài đăng có hình ảnh

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "pose_landmarker",
                                      ofType: "task")

let options = PoseLandmarkerOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .image
options.minPoseDetectionConfidence = minPoseDetectionConfidence
options.minPosePresenceConfidence = minPosePresenceConfidence
options.minTrackingConfidence = minTrackingConfidence
options.numPoses = numPoses

let poseLandmarker = try PoseLandmarker(options: options)
    

Video

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "pose_landmarker",
                                      ofType: "task")

let options = PoseLandmarkerOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .video
options.minPoseDetectionConfidence = minPoseDetectionConfidence
options.minPosePresenceConfidence = minPosePresenceConfidence
options.minTrackingConfidence = minTrackingConfidence
options.numPoses = numPoses

let poseLandmarker = try PoseLandmarker(options: options)
    

Sự kiện phát trực tiếp

import MediaPipeTasksVision

// Class that conforms to the `PoseLandmarkerLiveStreamDelegate` protocol and
// implements the method that the pose landmarker calls once it finishes
// performing pose landmark detection in each input frame.
class PoseLandmarkerResultProcessor: NSObject, PoseLandmarkerLiveStreamDelegate {

  func poseLandmarker(
    _ poseLandmarker: PoseLandmarker,
    didFinishDetection result: PoseLandmarkerResult?,
    timestampInMilliseconds: Int,
    error: Error?) {

    // Process the pose landmarker result or errors here.

  }
}

let modelPath = Bundle.main.path(forResource: "pose_landmarker",
                                      ofType: "task")

let options = PoseLandmarkerOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .liveStream
options.minPoseDetectionConfidence = minPoseDetectionConfidence
options.minPosePresenceConfidence = minPosePresenceConfidence
options.minTrackingConfidence = minTrackingConfidence
options.numPoses = numPoses

// Assign an object of the class to the `poseLandmarkerLiveStreamDelegate`
// property.
let processor = PoseLandmarkerResultProcessor()
options.poseLandmarkerLiveStreamDelegate = processor

let poseLandmarker = try PoseLandmarker(options: options)
    

Objective-C

Bài đăng có hình ảnh

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"pose_landmarker"
                                                      ofType:@"task"];

MPPPoseLandmarkerOptions *options = [[MPPPoseLandmarkerOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeImage;
options.minPoseDetectionConfidence = minPoseDetectionConfidence;
options.minPosePresenceConfidence = minPosePresenceConfidence;
options.minTrackingConfidence = minTrackingConfidence;
options.numPoses = numPoses;

MPPPoseLandmarker *poseLandmarker =
  [[MPPPoseLandmarker alloc] initWithOptions:options error:nil];
    

Video

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"pose_landmarker"
                                                      ofType:@"task"];

MPPPoseLandmarkerOptions *options = [[MPPPoseLandmarkerOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeVideo;
options.minPoseDetectionConfidence = minPoseDetectionConfidence;
options.minPosePresenceConfidence = minPosePresenceConfidence;
options.minTrackingConfidence = minTrackingConfidence;
options.numPoses = numPoses;

MPPPoseLandmarker *poseLandmarker =
  [[MPPPoseLandmarker alloc] initWithOptions:options error:nil];
    

Sự kiện phát trực tiếp

@import MediaPipeTasksVision;

// Class that conforms to the `MPPPoseLandmarkerLiveStreamDelegate` protocol
// and implements the method that the pose landmarker calls once it finishes
// performing pose landmarks= detection in each input frame.

@interface APPPoseLandmarkerResultProcessor : NSObject 

@end

@implementation APPPoseLandmarkerResultProcessor

-   (void)poseLandmarker:(MPPPoseLandmarker *)poseLandmarker
    didFinishDetectionWithResult:(MPPPoseLandmarkerResult *)poseLandmarkerResult
         timestampInMilliseconds:(NSInteger)timestampInMilliseconds
                           error:(NSError *)error {

    // Process the pose landmarker result or errors here.

}

@end

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"pose_landmarker"
                                                      ofType:@"task"];

MPPPoseLandmarkerOptions *options = [[MPPPoseLandmarkerOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeLiveStream;
options.minPoseDetectionConfidence = minPoseDetectionConfidence;
options.minPosePresenceConfidence = minPosePresenceConfidence;
options.minTrackingConfidence = minTrackingConfidence;
options.numPoses = numPoses;

// Assign an object of the class to the `poseLandmarkerLiveStreamDelegate`
// property.
APPPoseLandmarkerResultProcessor *processor =
  [APPPoseLandmarkerResultProcessor new];
options.poseLandmarkerLiveStreamDelegate = processor;

MPPPoseLandmarker *poseLandmarker =
  [[MPPPoseLandmarker alloc] initWithOptions:options error:nil];
    

Lưu ý: Nếu bạn sử dụng chế độ video hoặc chế độ phát trực tiếp, Pose Tager sẽ sử dụng để tránh kích hoạt mô hình phát hiện tì tay trên mọi khung hình. Điều này giúp giảm độ trễ.

Các lựa chọn về cấu hình

Nhiệm vụ này có các lựa chọn cấu hình sau đây cho ứng dụng iOS:

Tên lựa chọn Mô tả Khoảng giá trị Giá trị mặc định
running_mode Thiết lập chế độ chạy cho tác vụ. Có ba chế độ:

HÌNH ẢNH: Chế độ cho đầu vào một hình ảnh.

VIDEO: Chế độ cho các khung đã giải mã của video.

LIVE_STREAM: Chế độ phát trực tiếp đầu vào chẳng hạn như từ máy ảnh. Ở chế độ này, bạn phải đặt poseLandmarkerLiveStreamDelegate thành một thực thể của lớp triển khai PoseLandmarkerLiveStreamDelegate để nhận kết quả của thực hiện tính năng phát hiện điểm mốc tư thế một cách không đồng bộ.
{RunningMode.image, RunningMode.video, RunningMode.liveStream} RunningMode.image
num_poses Số lượng tư thế tối đa có thể được phát hiện bởi Điểm mốc tư thế. Integer > 0 1
min_pose_detection_confidence Điểm tin cậy tối thiểu để phát hiện tư thế được coi là thành công. Float [0.0,1.0] 0.5
min_pose_presence_confidence Điểm số tin cậy tối thiểu khi xuất hiện tư thế điểm số trong tính năng phát hiện điểm mốc tư thế. Float [0.0,1.0] 0.5
min_tracking_confidence Điểm tin cậy tối thiểu cho tính năng theo dõi tư thế để được coi là thành công. Float [0.0,1.0] 0.5
output_segmentation_masks Liệu Trình xác định tư thế có xuất ra mặt nạ phân đoạn cho tư thế. Boolean False
result_callback Thiết lập trình nghe kết quả để nhận kết quả của trình tạo mốc không đồng bộ khi Điểm mốc tư thế đang ở chế độ phát trực tiếp. Chỉ sử dụng được khi bạn đặt chế độ chạy thành LIVE_STREAM ResultListener N/A

Cấu hình sự kiện phát trực tiếp

Khi bạn đặt chế độ chạy thành phát trực tiếp, Người xác định tư thế sẽ yêu cầu tùy chọn cấu hình poseLandmarkerLiveStreamDelegate bổ sung, cho phép Công cụ tạo điểm ảnh tư thế đưa ra kết quả phát hiện điểm mốc tạo tư thế một cách không đồng bộ. Ủy quyền phải triển khai Phương thức poseLandmarker(_:didFinishDetection:timestampInMilliseconds:error:), mà Trình xác định tư thế gọi sau khi xử lý kết quả của việc thực hiện tư thế điểm mốc trên từng khung hình.

Tên tùy chọn Mô tả Khoảng giá trị Giá trị mặc định
poseLandmarkerLiveStreamDelegate Cho phép Trình xác định tư thế nhận kết quả của việc thực hiện tư thế phát hiện mốc một cách không đồng bộ ở chế độ phát trực tiếp. Lớp có được đặt thành thuộc tính này. poseLandmarker(_:didFinishDetection:timestampInMilliseconds:error:) . Không áp dụng Chưa đặt

Chuẩn bị dữ liệu

Bạn cần chuyển đổi hình ảnh hoặc khung đầu vào thành đối tượng MPImage trước để truyền tệp đó đến Điểm mốc tư thế. MPImage hỗ trợ nhiều loại hình ảnh iOS và có thể sử dụng chúng ở bất kỳ chế độ chạy nào để suy luận. Để biết thêm thông tin về MPImage, hãy tham khảo API MPImage

Chọn định dạng hình ảnh iOS dựa trên trường hợp sử dụng của bạn và chế độ chạy của bạn yêu cầu.MPImage chấp nhận UIImage, CVPixelBufferCMSampleBuffer Định dạng hình ảnh cho iOS.

UIImage

Định dạng UIImage rất phù hợp với các chế độ chạy sau đây:

  • Hình ảnh: hình ảnh từ gói ứng dụng, thư viện người dùng hoặc hệ thống tệp được định dạng là UIImage hình ảnh có thể được chuyển đổi thành đối tượng MPImage.

  • Video: sử dụng AVAssetImageGenerator để trích xuất khung hình video vào CGImage rồi chuyển đổi chúng thành UIImage hình ảnh.

Swift

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(uiImage: image)
    

Objective-C

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

Ví dụ này khởi chạy MPImage với giá trị mặc định UIImage.Orientation.Up hướng. Bạn có thể khởi chạy MPImage bằng bất kỳ UIImage.Orientation giá trị. Trình đánh dấu tư thế không hỗ trợ hướng được phản chiếu như .upMirrored, .downMirrored, .leftMirrored, .rightMirrored.

Để biết thêm thông tin về UIImage, hãy tham khảo UIImage Apple Developer (Nhà phát triển UIImage) Tài liệu.

CVPixelBuffer

Định dạng CVPixelBuffer rất phù hợp với các ứng dụng tạo khung và sử dụng CoreImage của iOS khung để xử lý.

Định dạng CVPixelBuffer rất phù hợp với các chế độ chạy sau đây:

  • Hình ảnh: ứng dụng tạo ra CVPixelBuffer hình ảnh sau một số quá trình xử lý bằng cách sử dụng khung CoreImage của iOS có thể được gửi đến Điểm mốc tư thế trong chế độ chạy hình ảnh.

  • Video: khung video có thể được chuyển đổi sang định dạng CVPixelBuffer cho xử lý, sau đó gửi đến Điểm đánh dấu tư thế ở chế độ video.

  • phát trực tiếp: ứng dụng dùng máy ảnh iOS để tạo khung hình có thể được chuyển đổi sang định dạng CVPixelBuffer để xử lý trước khi gửi đến Tạo dáng chuẩn bị đứng ở chế độ phát trực tiếp.

Swift

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(pixelBuffer: pixelBuffer)
    

Objective-C

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

Để biết thêm thông tin về CVPixelBuffer, hãy tham khảo CVPixelBuffer Apple Nhà phát triển Tài liệu.

CMSampleBuffer

Định dạng CMSampleBuffer lưu trữ các mẫu phương tiện của một loại phương tiện đồng nhất và rất phù hợp với chế độ chạy phát trực tiếp. Khung hình trực tiếp từ máy ảnh iOS phân phối không đồng bộ ở định dạng CMSampleBuffer bởi iOS AVCaptureVideoDataOutput.

Swift

// Obtain a CMSampleBuffer.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(sampleBuffer: sampleBuffer)
    

Objective-C

// Obtain a `CMSampleBuffer`.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
    

Để biết thêm thông tin về CMSampleBuffer, hãy tham khảo CMSampleBuffer Apple Nhà phát triển Tài liệu.

Chạy tác vụ

Để chạy Trình phân cách tư thế, hãy sử dụng phương thức detect() dành riêng cho chế độ chạy:

  • Hình ảnh tĩnh: detect(image:)
  • Video: detect(videoFrame:timestampInMilliseconds:)
  • Phát trực tiếp: detectAsync(image:timestampInMilliseconds:)

Các mã mẫu sau đây minh hoạ các ví dụ đơn giản về cách chạy tính năng Điểm mốc tư thế trong các chế độ chạy khác nhau này:

Swift

Bài đăng có hình ảnh

let result = try poseLandmarker.detect(image: image)
    

Video

let result = try poseLandmarker.detect(
  videoFrame: image,
  timestampInMilliseconds: timestamp)
    

Sự kiện phát trực tiếp

try poseLandmarker.detectAsync(
  image: image,
  timestampInMilliseconds: timestamp)
    

Objective-C

Bài đăng có hình ảnh

MPPPoseLandmarkerResult *result =
  [poseLandmarker detectImage:image error:nil];
    

Video

MPPPoseLandmarkerResult *result =
  [poseLandmarker detectVideoFrame:image
           timestampInMilliseconds:timestamp
                             error:nil];
    

Sự kiện phát trực tiếp

BOOL success =
  [poseLandmarker detectAsyncImage:image
           timestampInMilliseconds:timestamp
                             error:nil];
    

Ví dụ về mã Pose Cột mốc cho thấy cách triển khai từng chế độ trong số này chi tiết hơn detect(image:), detect(videoFrame:timestampInMilliseconds:), và detectAsync(image:timestampInMilliseconds:). Mã ví dụ này cho phép để người dùng chuyển đổi giữa các chế độ xử lý mà có thể không cần thiết cho việc sử dụng của bạn trường hợp.

Xin lưu ý những điều sau:

  • Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung nhập vào tác vụ Tạo điểm mốc tư thế.

  • Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Điểm đánh dấu tư thế sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh hoặc khung đầu vào. Người nhận tránh chặn luồng hiện tại, hãy thực thi quá trình xử lý trong nền chuỗi bằng iOS Điều phối hoặc NSOperation khung.

  • Khi chạy ở chế độ phát trực tiếp, tác vụ Tạo điểm mốc tư thế sẽ trả về ngay lập tức và không chặn luồng hiện tại. Phương thức gọi poseLandmarker(_:didFinishDetection:timestampInMilliseconds:error:) phương thức với kết quả tạo điểm mốc tư thế sau khi xử lý từng khung nhập. Chiến lược phát hành đĩa đơn Trình tạo mốc tư thế gọi phương thức này không đồng bộ trên một sê-ri chuyên dụng hàng đợi điều phối. Để hiển thị kết quả trên giao diện người dùng, hãy gửi kết quả vào hàng đợi chính sau khi xử lý kết quả. Nếu detectAsync được gọi khi tác vụ Tạo điểm mốc tư thế đang bận xử lý một tác vụ khác khung hình, Trình phân tích tư thế sẽ bỏ qua khung nhập mới.

Xử lý và hiện kết quả

Sau khi chạy dự đoán, tác vụ Trình phân tích tư thế (Pose) sẽ trả về một PoseLandmarkerResult Tệp này chứa toạ độ cho từng mốc tạo dáng.

Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:

PoseLandmarkerResult:
  Landmarks:
    Landmark #0:
      x            : 0.638852
      y            : 0.671197
      z            : 0.129959
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.634599
      y            : 0.536441
      z            : -0.06984
      visibility   : 0.999909
      presence     : 0.999958
    ... (33 landmarks per pose)
  WorldLandmarks:
    Landmark #0:
      x            : 0.067485
      y            : 0.031084
      z            : 0.055223
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.063209
      y            : -0.00382
      z            : 0.020920
      visibility   : 0.999976
      presence     : 0.999998
    ... (33 world landmarks per pose)
  SegmentationMasks:
    ... (pictured below)

Kết quả đầu ra chứa cả toạ độ chuẩn hoá (Landmarks) và thế giới toạ độ (WorldLandmarks) cho từng mốc.

Kết quả đầu ra chứa các toạ độ được chuẩn hoá sau (Landmarks):

  • xy: Toạ độ điểm mốc được chuẩn hoá trong khoảng từ 0,0 đến 1,0 theo chiều rộng và chiều cao của hình ảnh (x) (y).

  • z: Độ sâu của mốc, trong đó độ sâu ở điểm giữa hông là máy chủ gốc. Giá trị càng nhỏ thì điểm mốc càng gần camera. Chiến lược phát hành đĩa đơn độ lớn của z có cùng tỷ lệ với x.

  • visibility: Khả năng điểm mốc hiển thị trong hình ảnh.

Kết quả đầu ra chứa các toạ độ thế giới sau (WorldLandmarks):

  • x, yz: Toạ độ 3 chiều thế giới thực tính bằng mét, với là điểm giữa của hông.

  • visibility: Khả năng điểm mốc hiển thị trong hình ảnh.

Hình ảnh sau đây minh hoạ kết quả của tác vụ:

Mặt nạ phân đoạn tuỳ chọn thể hiện khả năng thuộc về từng pixel cho một người bị phát hiện. Hình ảnh sau đây là mặt nạ phân đoạn của kết quả tác vụ:

Mã ví dụ về Điểm mốc tư thế giới thiệu cách hiển thị Điểm mốc tư thế kết quả.