Detyra MediaPipe Hand Landmarker ju lejon të zbuloni pikat referuese të duarve në një imazh. Këto udhëzime ju tregojnë se si të përdorni Handmarker me aplikacionet iOS. Shembulli i kodit i përshkruar në këto udhëzime është i disponueshëm në GitHub .
Për më shumë informacion rreth aftësive, modeleve dhe opsioneve të konfigurimit të kësaj detyre, shihni Përmbledhjen .
Shembull kodi
Kodi i shembullit të MediaPipe Tasks është një zbatim bazë i një aplikacioni Hand Landmarker për iOS. Shembulli përdor kamerën në një pajisje fizike iOS për të zbuluar pikat referuese të dorës në një transmetim të vazhdueshëm video. Aplikacioni mund të zbulojë gjithashtu pika referimi të dorës në imazhe dhe video nga galeria e pajisjes.
Mund ta përdorni aplikacionin si pikënisje për aplikacionin tuaj iOS ose t'i referoheni kur modifikoni një aplikacion ekzistues. Shembulli i kodit Hand Landmarker gjendet në GitHub .
Shkarkoni kodin
Udhëzimet e mëposhtme ju tregojnë se si të krijoni një kopje lokale të kodit shembull duke përdorur mjetin e linjës së komandës git .
Për të shkarkuar kodin shembull:
Klononi depon e git duke përdorur komandën e mëposhtme:
git clone https://github.com/google-ai-edge/mediapipe-samples
Opsionale, konfiguroni shembullin tuaj të git për të përdorur arkëtimin e rrallë, në mënyrë që të keni vetëm skedarët për shembullin e aplikacionit Hand Landmarker:
cd mediapipe-samples git sparse-checkout init --cone git sparse-checkout set examples/hand_landmarker/ios/
Pas krijimit të një versioni lokal të kodit shembull, mund të instaloni bibliotekën e detyrave MediaPipe, të hapni projektin duke përdorur Xcode dhe të ekzekutoni aplikacionin. Për udhëzime, shihni Udhëzuesin e konfigurimit për iOS .
Komponentët kryesorë
Skedarët e mëposhtëm përmbajnë kodin vendimtar për shembullin e aplikacionit Hand Landmarker:
- HandLandmarkerService.swift : Inicializon shënuesin e dorës, trajton zgjedhjen e modelit dhe ekzekuton konkluzionet në të dhënat hyrëse.
- CameraViewController.swift : Zbaton ndërfaqen e përdoruesit për modalitetin e hyrjes së furnizimit të drejtpërdrejtë të kamerës dhe vizualizon rezultatet.
- MediaLibraryViewController.swift : Zbaton ndërfaqen e përdoruesit për modalitetin e futjes së skedarëve të imazheve dhe videove dhe vizualizon rezultatet.
Konfigurimi
Ky seksion përshkruan hapat kryesorë për konfigurimin e mjedisit tuaj të zhvillimit dhe projekteve të kodit për të përdorur Hand Landmarker. Për informacion të përgjithshëm mbi konfigurimin e mjedisit tuaj të zhvillimit për përdorimin e detyrave të MediaPipe, duke përfshirë kërkesat e versionit të platformës, shihni udhëzuesin e konfigurimit për iOS .
varësitë
Hand Landmarker përdor bibliotekën MediaPipeTasksVision
, e cila duhet të instalohet duke përdorur CocoaPods. Biblioteka është e pajtueshme me të dy aplikacionet Swift dhe Objective-C dhe nuk kërkon ndonjë konfigurim shtesë specifik për gjuhën.
Për udhëzime për instalimin e CocoaPods në macOS, referojuni udhëzuesit të instalimit të CocoaPods . Për udhëzime se si të krijoni një Podfile
me pods-et e nevojshme për aplikacionin tuaj, referojuni Përdorimit të CocoaPods .
Shtoni podin MediaPipeTasksVision në Podfile
duke përdorur kodin e mëposhtëm:
target 'MyHandLandmarkerApp' do
use_frameworks!
pod 'MediaPipeTasksVision'
end
Nëse aplikacioni juaj përfshin objektiva testimi të njësisë, referojuni Udhëzuesit të konfigurimit për iOS për informacion shtesë mbi konfigurimin e skedarit tuaj Podfile
.
Model
Detyra MediaPipe Hand Landmarker kërkon një model të trajnuar që është në përputhje me këtë detyrë. Për më shumë informacion rreth modeleve të trajnuara të disponueshme për Hand Landmarker, shihni seksionin Modelet e përmbledhjes së detyrave.
Zgjidhni dhe shkarkoni një model dhe shtoni atë në drejtorinë e projektit tuaj duke përdorur Xcode. Për udhëzime se si të shtoni skedarë në projektin tuaj Xcode, referojuni Menaxhimi i skedarëve dhe dosjeve në projektin tuaj Xcode .
Përdorni veçorinë BaseOptions.modelAssetPath
për të specifikuar shtegun drejt modelit në paketën tuaj të aplikacionit. Për një shembull kodi, shihni seksionin tjetër.
Krijo detyrën
Ju mund të krijoni detyrën Hand Landmarker duke thirrur një nga inicializuesit e saj. Inicializuesi HandLandmarker(options:)
pranon vlerat për opsionet e konfigurimit.
Nëse nuk keni nevojë për një Hand Landmarker të inicializuar me opsione të personalizuara konfigurimi, mund të përdorni iniciatorin HandLandmarker(modelPath:)
për të krijuar një Landmarker Hand me opsionet e paracaktuara. Për më shumë informacion rreth opsioneve të konfigurimit, shihni Përmbledhjen e konfigurimit .
Detyra Hand Landmarker mbështet 3 lloje të dhënash hyrëse: imazhe statike, skedarë video dhe transmetime video të drejtpërdrejta. Si parazgjedhje, HandLandmarker(modelPath:)
inicializon një detyrë për imazhet statike. Nëse dëshironi që detyra juaj të inicializohet për të përpunuar skedarë video ose transmetime video të drejtpërdrejta, përdorni HandLandmarker(options:)
për të specifikuar modalitetin e ekzekutimit të videos ose transmetimit të drejtpërdrejtë. Modaliteti i transmetimit të drejtpërdrejtë kërkon gjithashtu opsionin shtesë të konfigurimit handLandmarkerLiveStreamDelegate
, i cili mundëson Hand Landmarker t'i japë delegatit në mënyrë asinkrone rezultatet e treguesit të dorës.
Zgjidhni skedën që korrespondon me modalitetin tuaj të ekzekutimit për të parë se si të krijoni detyrën dhe të ekzekutoni konkluzionet.
Swift
Imazhi
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "hand_landmarker", ofType: "task") let options = HandLandmarkerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .image options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands let handLandmarker = try HandLandmarker(options: options)
Video
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "hand_landmarker", ofType: "task") let options = HandLandmarkerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .video options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands let handLandmarker = try HandLandmarker(options: options)
Transmetim i drejtpërdrejtë
import MediaPipeTasksVision // Class that conforms to the `HandLandmarkerLiveStreamDelegate` protocol and // implements the method that the hand landmarker calls once it finishes // performing landmarks detection in each input frame. class HandLandmarkerResultProcessor: NSObject, HandLandmarkerLiveStreamDelegate { func handLandmarker( _ handLandmarker: HandLandmarker, didFinishDetection result: HandLandmarkerResult?, timestampInMilliseconds: Int, error: Error?) { // Process the hand landmarker result or errors here. } } let modelPath = Bundle.main.path( forResource: "hand_landmarker", ofType: "task") let options = HandLandmarkerOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .liveStream options.minHandDetectionConfidence = minHandDetectionConfidence options.minHandPresenceConfidence = minHandPresenceConfidence options.minTrackingConfidence = minHandTrackingConfidence options.numHands = numHands // Assign an object of the class to the `handLandmarkerLiveStreamDelegate` // property. let processor = HandLandmarkerResultProcessor() options.handLandmarkerLiveStreamDelegate = processor let handLandmarker = try HandLandmarker(options: options)
Objektivi-C
Imazhi
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"hand_landmarker" ofType:@"task"]; MPPHandLandmarkerOptions *options = [[MPPHandLandmarkerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeImage; options.minHandDetectionConfidence = minHandDetectionConfidence; options.minHandPresenceConfidence = minHandPresenceConfidence; options.minTrackingConfidence = minHandTrackingConfidence; options.numHands = numHands; MPPHandLandmarker *handLandmarker = [[MPPHandLandmarker alloc] initWithOptions:options error:nil];
Video
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"hand_landmarker" ofType:@"task"]; MPPHandLandmarkerOptions *options = [[MPPHandLandmarkerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeVideo; options.minHandDetectionConfidence = minHandDetectionConfidence; options.minHandPresenceConfidence = minHandPresenceConfidence; options.minTrackingConfidence = minHandTrackingConfidence; options.numHands = numHands; MPPHandLandmarker *handLandmarker = [[MPPHandLandmarker alloc] initWithOptions:options error:nil];
Transmetim i drejtpërdrejtë
@import MediaPipeTasksVision; // Class that conforms to the `MPPHandLandmarkerLiveStreamDelegate` protocol // and implements the method that the hand landmarker calls once it finishes // performing landmarks detection in each input frame. @interface APPHandLandmarkerResultProcessor : NSObject@end @implementation APPHandLandmarkerResultProcessor - (void)handLandmarker:(MPPHandLandmarker *)handLandmarker didFinishDetectionWithResult:(MPPHandLandmarkerResult *)handLandmarkerResult timestampInMilliseconds:(NSInteger)timestampInMilliseconds error:(NSError *)error { // Process the hand landmarker result or errors here. } @end NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"hand_landmarker" ofType:@"task"]; MPPHandLandmarkerOptions *options = [[MPPHandLandmarkerOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeLiveStream; options.minHandDetectionConfidence = minHandDetectionConfidence; options.minHandPresenceConfidence = minHandPresenceConfidence; options.minTrackingConfidence = minHandTrackingConfidence; options.numHands = numHands; // Assign an object of the class to the `handLandmarkerLiveStreamDelegate` // property. APPHandLandmarkerResultProcessor *processor = [APPHandLandmarkerResultProcessor new]; options.handLandmarkerLiveStreamDelegate = processor; MPPHandLandmarker *handLandmarker = [[MPPHandLandmarker alloc] initWithOptions:options error:nil];
Opsionet e konfigurimit
Kjo detyrë ka opsionet e mëposhtme të konfigurimit për aplikacionet iOS:
Emri i opsionit | Përshkrimi | Gama e vlerave | Vlera e paracaktuar |
---|---|---|---|
running_mode | Vendos modalitetin e ekzekutimit për detyrën. Ekzistojnë tre mënyra: IMAGE: Modaliteti për hyrjet e një imazhi të vetëm. VIDEO: Modaliteti për kornizat e dekoduara të një videoje. LIVE_STREAM: Modaliteti për një transmetim të drejtpërdrejtë të të dhënave hyrëse, si p.sh. nga një aparat fotografik. Në këtë modalitet, resultListener duhet të thirret për të vendosur një dëgjues për të marrë rezultatet në mënyrë asinkrone. Në këtë modalitet, handLandmarkerLiveStreamDelegate duhet të vendoset në një shembull të një klase që zbaton HandLandmarkerLiveStreamDelegate për të marrë rezultatet e zbulimit të pikës referuese me dorë në mënyrë asinkrone. | { RunningMode.image, RunningMode.video, RunningMode.liveStream } | RunningMode.image |
numHands | Numri maksimal i duarve të zbuluara nga detektori i pikës referuese Hand. | Any integer > 0 | 1 |
minHandDetectionConfidence | Rezultati minimal i besimit për zbulimin e dorës për t'u konsideruar i suksesshëm në modelin e zbulimit të pëllëmbës. | 0.0 - 1.0 | 0.5 |
minHandPresenceConfidence | Rezultati minimal i besimit për rezultatin e pranisë së dorës në modelin e zbulimit të pikës referimi me dorë. Në modalitetin "Video" dhe "Transmetimi i drejtpërdrejtë", nëse rezultati i besueshmërisë së pranisë së dorës nga modeli i pikës së dorës është nën këtë prag, "Shënuesi i dorës" aktivizon modelin e zbulimit të pëllëmbës. Përndryshe, një algoritëm i lehtë i gjurmimit të dorës përcakton vendndodhjen e dorës(ave) për zbulimet e mëvonshme të pikës referimi. | 0.0 - 1.0 | 0.5 |
minTrackingConfidence | Rezultati minimal i besimit që gjurmimi i dorës të konsiderohet i suksesshëm. Ky është pragu kufizues IoU i kutisë midis duarve në kuadrin aktual dhe kuadrit të fundit. Në modalitetin "Video" dhe "Transmetim" të "Hand Landmarker", nëse gjurmimi dështon, Hand Landmarker aktivizon zbulimin me dorë. Përndryshe, ai anashkalon zbulimin e dorës. | 0.0 - 1.0 | 0.5 |
result_listener | Vendos dëgjuesin e rezultateve që të marrë rezultatet e zbulimit në mënyrë asinkrone kur pikë referimi është në modalitetin e transmetimit të drejtpërdrejtë. Zbatohet vetëm kur modaliteti i ekzekutimit është caktuar në LIVE_STREAM | N/A | N/A |
Kur modaliteti i ekzekutimit caktohet në transmetim të drejtpërdrejtë, Hand Landmarker kërkon opsionin shtesë të konfigurimit handLandmarkerLiveStreamDelegate
, i cili i mundëson Hand Landmarker të japë rezultatet e zbulimit të pikave referuese me dorë në mënyrë asinkrone. I deleguari duhet të zbatojë metodën handLandmarker(_:didFinishDetection:timestampInMilliseconds:error:)
, të cilën Hand Landmarker e quan pas përpunimit të rezultateve të zbulimit të pikave referuese të dorës për çdo kornizë.
Emri i opsionit | Përshkrimi | Gama e vlerave | Vlera e paracaktuar |
---|---|---|---|
handLandmarkerLiveStreamDelegate | Aktivizon Hand Landmarker që të marrë rezultatet e zbulimit të pikës referuese me dorë në mënyrë asinkrone në modalitetin e transmetimit të drejtpërdrejtë. Klasa instanca e së cilës është caktuar në këtë veti duhet të zbatojë metodën handLandmarker(_:didFinishDetection:timestampInMilliseconds:error:) . | E pazbatueshme | Nuk është vendosur |
Përgatitni të dhënat
Ju duhet të konvertoni imazhin ose kornizën hyrëse në një objekt MPImage
përpara se t'ia kaloni atë Hand Landmarker. MPImage
mbështet lloje të ndryshme të formateve të imazhit iOS dhe mund t'i përdorë ato në çdo modalitet ekzekutimi për përfundime. Për më shumë informacion rreth MPImage
, referojuni MPImage API .
Zgjidhni një format imazhi iOS bazuar në rastin tuaj të përdorimit dhe mënyrën e ekzekutimit që kërkon aplikacioni juaj. MPImage
pranon formatet e imazhit UIImage
, CVPixelBuffer
dhe CMSampleBuffer
iOS.
UIIimazh
Formati UIImage
është i përshtatshëm për mënyrat e mëposhtme të funksionimit:
Imazhet: imazhet nga një grup aplikacioni, galeri përdoruesish ose sistem skedarësh të formatuar si imazhe
UIImage
mund të konvertohen në një objektMPImage
.Videot: përdorni AVAssetImageGenerator për të nxjerrë kornizat e videos në formatin CGImage , më pas i konvertoni ato në imazhe
UIImage
.
Swift
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(uiImage: image)
Objektivi-C
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
Shembulli inicializon një MPImage
me orientimin e paracaktuar UIImage.Orientation.Up . Mund të inicializoni një MPImage
me ndonjë nga vlerat e mbështetura të UIImage.Orientation . Hand Landmarker nuk mbështet orientime të pasqyruara si .upMirrored
, .downMirrored
, .leftMirrored
, .rightMirrored
.
Për më shumë informacion rreth UIImage
, referojuni Dokumentacionit të Zhvilluesit të UIImage Apple .
CVPixelBuffer
Formati CVPixelBuffer
është i përshtatshëm për aplikacionet që gjenerojnë korniza dhe përdorin kornizën iOS CoreImage për përpunim.
Formati CVPixelBuffer
është i përshtatshëm për mënyrat e mëposhtme të funksionimit:
Imazhet: aplikacionet që gjenerojnë imazhe
CVPixelBuffer
pas disa përpunimit duke përdorur kornizënCoreImage
të iOS, mund të dërgohen te "Hand Landmarker" në modalitetin e ekzekutimit të imazhit.Videot: kornizat e videove mund të konvertohen në formatin
CVPixelBuffer
për përpunim dhe më pas të dërgohen te Handmarker në modalitetin e videos.transmetim i drejtpërdrejtë: aplikacionet që përdorin një kamerë iOS për të gjeneruar korniza mund të konvertohen në formatin
CVPixelBuffer
për përpunim përpara se të dërgohen në "Hand Landmarker" në modalitetin e transmetimit të drejtpërdrejtë.
Swift
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(pixelBuffer: pixelBuffer)
Objektivi-C
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
Për më shumë informacion rreth CVPixelBuffer
, referojuni Dokumentacionit të Zhvilluesit të Apple CVPixelBuffer .
CMSampleBuffer
Formati CMSampleBuffer
ruan mostrat e mediave të një lloji uniform të medias dhe është i përshtatshëm për modalitetin e ekzekutimit të transmetimit të drejtpërdrejtë. Kornizat e drejtpërdrejta nga kamerat iOS shpërndahen në mënyrë asinkrone në formatin CMSampleBuffer
nga iOS AVCaptureVideoDataOutput .
Swift
// Obtain a CMSampleBuffer. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(sampleBuffer: sampleBuffer)
Objektivi-C
// Obtain a `CMSampleBuffer`. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
Për më shumë informacion rreth CMSampleBuffer
, referojuni Dokumentacionit të Zhvilluesit të Apple CMSampleBuffer .
Drejtoni detyrën
Për të ekzekutuar shënuesin e dorës, përdorni metodën detect()
specifike për modalitetin e caktuar të funksionimit:
- Imazhi i palëvizshëm:
detect(image:)
- Video:
detect(videoFrame:timestampInMilliseconds:)
- Transmetimi i drejtpërdrejtë:
detectAsync(image:timestampInMilliseconds:)
Swift
Imazhi
let result = try handLandmarker.detect(image: image)
Video
let result = try handLandmarker.detect( videoFrame: image, timestampInMilliseconds: timestamp)
Transmetim i drejtpërdrejtë
try handLandmarker.detectAsync( image: image, timestampInMilliseconds: timestamp)
Objektivi-C
Imazhi
MPPHandLandmarkerResult *result = [handLandmarker detectInImage:image error:nil];
Video
MPPHandLandmarkerResult *result = [handLandmarker detectInVideoFrame:image timestampInMilliseconds:timestamp error:nil];
Transmetim i drejtpërdrejtë
BOOL success = [handLandmarker detectAsyncInImage:image timestampInMilliseconds:timestamp error:nil];
Shembulli i kodit Hand Landmarker tregon implementimet e secilit prej këtyre mënyrave në më shumë detaje. Kodi shembull i lejon përdoruesit të kalojë ndërmjet mënyrave të përpunimit, të cilat mund të mos kërkohen për rastin tuaj të përdorimit.
Vini re sa vijon:
Kur ekzekutoni në modalitetin e videos ose në modalitetin e transmetimit të drejtpërdrejtë, duhet të jepni gjithashtu vulën kohore të kornizës së hyrjes në detyrën Hand Landmarker.
Kur ekzekutohet në modalitetin e imazhit ose video, detyra Hand Landmarker bllokon fillin aktual derisa të përfundojë përpunimin e imazhit ose kornizës hyrëse. Për të shmangur bllokimin e fillit aktual, ekzekutoni përpunimin në një fill në sfond duke përdorur kornizat iOS Dispatch ose NSOoperation .
Kur ekzekutohet në modalitetin e transmetimit të drejtpërdrejtë, detyra Hand Landmarker kthehet menjëherë dhe nuk bllokon lidhjen aktuale. Ai thërret metodën
handLandmarker(_:didFinishDetection:timestampInMilliseconds:error:)
me rezultatin e shënuesit të dorës pas përpunimit të çdo kornize hyrëse. Shënuesi i dorës e thërret këtë metodë në mënyrë asinkrone në një radhë të dedikuar dërgimi serik. Për shfaqjen e rezultateve në ndërfaqen e përdoruesit, dërgoni rezultatet në radhën kryesore pas përpunimit të rezultateve. Nëse funksionidetectAsync
thirret kur detyra Hand Landmarker është e zënë me përpunimin e një kuadri tjetër, Hand Landmarker injoron kornizën e re hyrëse.
Trajtoni dhe shfaqni rezultatet
Pas ekzekutimit të konkluzionit, detyra Hand Landmarker kthen një HandLandmarkerResult
i cili përmban pikat referuese të dorës në koordinatat e imazhit, pikat referuese të dorës në koordinatat botërore dhe dorën (e majta/djathtas) e duarve të zbuluara.
Më poshtë tregon një shembull të të dhënave dalëse nga kjo detyrë:
Dalja HandLandmarkerResult
përmban tre komponentë. Çdo komponent është një grup, ku secili element përmban rezultatet e mëposhtme për një dorë të vetme të zbuluar:
Duartësia
Duartësia përfaqëson nëse duart e zbuluara janë duart e majta apo të djathta.
Pikat e referimit
Ka 21 pika referimi, secila e përbërë nga koordinatat
x
,y
dhez
. Koordinatatx
dhey
normalizohen në [0.0, 1.0] nga gjerësia dhe lartësia e imazhit, respektivisht. Koordinataz
përfaqëson thellësinë e pikës referuese, me thellësinë në kyçin e dorës që është origjina. Sa më e vogël të jetë vlera, aq më afër kamerës është pikë referimi. Madhësia ez
përdor përafërsisht të njëjtën shkallë six
.Monumentet e botës
21 pikat referuese të dorës janë paraqitur gjithashtu në koordinatat botërore. Çdo pikë referimi përbëhet nga
x
,y
dhez
, që përfaqësojnë koordinatat 3D të botës reale në metra me origjinën në qendrën gjeometrike të dorës.
HandLandmarkerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
Imazhi i mëposhtëm tregon një vizualizim të daljes së detyrës: