MediaPipe 地標工具工作可讓你偵測圖片中手部的地標。 以下操作說明將說明如何搭配 Android 應用程式使用手持地標工具。您可以前往 GitHub 取得這些操作說明中提及的程式碼範例。
如要進一步瞭解這項工作的功能、模型和設定選項,請參閱總覽。
程式碼範例
MediaPipe Tasks 範例程式碼是適用於 Android 的簡易實作地標應用程式。這個範例使用實體 Android 裝置的相機持續偵測手部地標,也能使用裝置圖片庫中的圖片和影片,以靜態方式偵測手部地標。
您可以將該應用程式做為開發 Android 應用程式的起點,也可以在修改現有應用程式時參照。實作地標程式碼可在 GitHub 上代管。
下載程式碼
以下操作說明說明如何使用 git 指令列工具建立範例程式碼的本機副本。
如要下載範例程式碼,請按照下列步驟操作:
- 使用下列指令複製 Git 存放區:
git clone https://github.com/google-ai-edge/mediapipe-samples
- 或者,您也可以設定 git 執行個體使用稀疏結帳功能,這樣您才會只有「Handmarker」範例應用程式的檔案:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/hand_landmarker/android
建立範例程式碼的本機版本後,您可以將專案匯入 Android Studio 並執行應用程式。如需操作說明,請參閱「Android 設定指南」。
重要元件
下列檔案包含這個手部地標偵測範例應用程式的重要程式碼:
- HandLandmarkerHelper.kt - 初始化手地標偵測工具,並處理模型和委派選取。
- MainActivity.kt - 實作應用程式,包括呼叫
HandLandmarkerHelper
。
設定
本節說明設定開發環境及編寫程式碼專案的重要步驟,以便專供「手地標」使用。如需瞭解如何設定開發環境以使用 MediaPipe 工作 (包括平台版本需求),請參閱「Android 設定指南」。
依附元件
「Handmarker」工作會使用 com.google.mediapipe:tasks-vision
程式庫。將此依附元件新增至 Android 應用程式的 build.gradle
檔案:
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
型號
MediaPipe Litroner 工作需要經過訓練且與這項工作相容的模型組合。如要進一步瞭解「手寫地標」可用的已訓練模型,請參閱工作總覽「模型」一節。
選取並下載模型,並儲存在專案目錄中:
<dev-project-root>/src/main/assets
在 ModelAssetPath
參數中指定模型的路徑。在這個範例程式碼中,模型會在 HandLandmarkerHelper.kt
檔案中定義:
baseOptionBuilder.setModelAssetPath(MP_HAND_LANDMARKER_TASK)
建立工作
MediaPipe Put Lander 工作會使用 createFromOptions()
函式設定工作。createFromOptions()
函式可接受設定選項的值。如要進一步瞭解設定選項,請參閱「設定選項」一文。
「手寫地標」支援 3 種輸入資料類型:靜態圖片、影片檔案和直播。您在建立工作時,需要指定與輸入資料類型相對應的執行模式。請選擇與輸入資料類型對應的分頁,瞭解如何建立工作並執行推論。
圖片
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
影片
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
直播
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
「Handmarker」程式碼範例實作可讓使用者切換處理模式。這種做法會讓工作建立程式碼變得更加複雜,並且可能不適合您的用途。您可以在 HandLandmarkerHelper.kt
檔案的 setupHandLandmarker()
函式中看到此程式碼。
設定選項
這項工作的 Android 應用程式設定選項如下:
選項名稱 | 說明 | 值範圍 | 預設值 |
---|---|---|---|
runningMode |
設定工作的執行模式。共有三種模式: IMAGE:單一圖片輸入的模式。 影片:影片已解碼影格的模式。 LIVE_STREAM:輸入資料串流 (例如攝影機) 的直播模式。在這個模式下,必須呼叫 resultListener 才能設定事件監聽器,以非同步方式接收結果。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
numHands |
手部地標偵測器偵測到的手數量上限。 | Any integer > 0 |
1 |
minHandDetectionConfidence |
在手掌偵測模型中,系統判定手部偵測成功的最低信心分數。 | 0.0 - 1.0 |
0.5 |
minHandPresenceConfidence |
在手部地標偵測模型中,手持狀態分數的最低可信度分數。在影片模式和直播模式下,如果手持位置標記模型的信心分數低於這個門檻,手寫地標就會觸發手掌偵測模型。否則,為了後續的地標偵測,系統會透過輕量追蹤演算法判斷手部的位置。 | 0.0 - 1.0 |
0.5 |
minTrackingConfidence |
系統判定手機追蹤成功時的最低可信度分數。這是目前影格和最後一個影格之間的定界框 IoU 門檻。在影片模式和手持地標的「串流」模式中,如果追蹤失敗,手地標就會觸發手部偵測。否則,會略過手部偵測。 | 0.0 - 1.0 |
0.5 |
resultListener |
設定結果監聽器,在手標位置處於直播模式時,以非同步方式接收偵測結果。只有在執行模式設為 LIVE_STREAM 時適用 |
不適用 | 不適用 |
errorListener |
設定選用的錯誤事件監聽器。 | 不適用 | 不適用 |
準備資料
手地標工地支援圖片、影片檔案和直播影片。工作會處理資料輸入的預先處理作業,包括調整大小、旋轉和值正規化。
以下程式碼示範如何傳送資料以進行處理。這些範例包含如何處理圖片、影片檔案和直播影片串流的資料。
圖片
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
影片
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
直播
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
在手寫地標範例程式碼中,HandLandmarkerHelper.kt
檔案會處理資料準備。
執行工作
視處理的資料類型而定,請使用該資料類型專屬的 HandLandmarker.detect...()
方法。針對個別圖片使用 detect()
,detectForVideo()
用於影片檔案中的影格,detectAsync()
用於影片串流。在影片串流中執行偵測時,請務必在另一個執行緒上執行偵測,以免封鎖使用者介面執行緒。
以下程式碼範例顯示如何在不同資料模式下執行「手稱地標」的簡易範例:
圖片
val result = handLandmarker?.detect(mpImage)
影片
val timestampMs = i * inferenceIntervalMs handLandmarker?.detectForVideo(mpImage, timestampMs) ?.let { detectionResult -> resultList.add(detectionResult) }
直播
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() handLandmarker?.detectAsync(mpImage, frameTime)
注意事項:
- 以影片模式或直播模式執行時,您也必須為手地標工作提供輸入影格的時間戳記。
- 在圖片或影片模式中執行時,「手置地標」工作會封鎖目前的執行緒,直到處理完成輸入圖片或影格為止。如要避免封鎖使用者介面,請在背景執行緒中執行處理作業。
- 以直播模式執行時,「手持地標」工作不會封鎖目前的執行緒,但會立即傳回。每當它處理完輸入影格時,就會透過偵測結果叫用結果監聽器。如果手地標工作正在忙於處理另一個影格時呼叫偵測功能,則任務會忽略新的輸入影格。
《Handmarker》範例程式碼中定義了 detect
、detectForVideo
和 detectAsync
函式,如 HandLandmarkerHelper.kt
檔案所示。
處理並顯示結果
手寫地標會每次執行偵測時,都會產生手部地標結果物件。結果物件包含圖片座標中的手繪地標、世界座標中的手地標,以及偵測到的手掌(左/右手)。
以下為這項工作的輸出資料範例:
HandLandmarkerResult
輸出內容包含三個元件。每個元件都是陣列,其中每個元素都包含下列偵測到的單一手結果:
慣用手設計
慣用手是指偵測到的手是左手還是右手。
地標
有 21 個手部地標,每個地標由
x
、y
和z
座標組成。x
和y
座標會分別根據圖片寬度和高度正規化為 [0.0, 1.0]。z
座標代表地標深度,手腕的深度為起點。值越小,地標與相機越近。z
的規模與x
大致相同。世界著名地標
21 隻手的地標也會顯示在世界座標中。每個地標都由
x
、y
和z
組成,代表實際的 3D 座標 (以公尺為單位),其起點位於手的幾何中心。
HandLandmarkerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
下圖以視覺化方式呈現工作輸出內容:
「Handmarker」範例程式碼會示範如何顯示工作傳回的結果,詳情請參閱 OverlayView
類別。