MediaPipe 手勢辨識器工作可讓你即時辨識手勢,以及 可提供系統辨識的手勢結果和 一隻手。下列操作說明說明如何使用手勢辨識器 使用 Android 應用程式在此說明中所述的程式碼範例 GitHub 上。
您可以前往 網路示範。 進一步瞭解功能、模型和設定選項 請參閱總覽。
程式碼範例
MediaPipe Tasks 範例程式碼是手勢辨識器的簡易實作方式 App Engine 應用程式這個範例會使用實體 Android 裝置上的相機執行以下動作: 會持續偵測手勢,還可以使用 支援靜態偵測手勢
您可以將應用程式做為起點,當做 Android 應用程式的起點,也可以參照應用程式 做出決定手勢辨識器程式碼範例 GitHub。
下載程式碼
以下說明如何建立範例的本機副本 git 指令列工具編寫程式碼。
如要下載範例程式碼,請按照下列步驟操作:
- 使用下列指令複製 git 存放區:
git clone https://github.com/google-ai-edge/mediapipe-samples
- 您也可以選擇設定 Git 執行個體,以使用稀疏結帳功能。
所以您只需要使用手勢辨識器範例應用程式的檔案:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/gesture_recognizer/android
建立範例程式碼的本機版本後,您可以匯入專案 然後執行應用程式如需操作說明,請參閱 Android 設定指南。
重要元件
下列檔案包含這個手勢的重要程式碼 辨識應用程式範例:
- GestureRecognizerHelper.kt: 初始化手勢辨識器並處理模型和委派項目 。
- MainActivity.kt:
實作應用程式,包括呼叫
GestureRecognizerHelper
和GestureRecognizerResultsAdapter
。 - GestureRecognizerResultsAdapter.kt: 處理結果並設定格式。
設定
本節說明設定開發環境的重要步驟,以及 專門使用手勢辨識工具的程式碼專案如需 設定開發環境以使用 MediaPipe 工作,包括: 平台版本需求,請參閱 Android 設定指南。
依附元件
手勢辨識器工作會使用 com.google.mediapipe:tasks-vision
資源庫。請將這個依附元件新增至 Android 應用程式的 build.gradle
檔案:
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
型號
MediaPipe 手勢辨識工具工作需要一個與 執行這項工作如要進一步瞭解手勢辨識器可用的已訓練模型,請參閱: 請參閱工作總覽的「模型」一節。
選取並下載模型,然後儲存在專案目錄中:
<dev-project-root>/src/main/assets
在 ModelAssetPath
參數中指定模型的路徑。在
範例程式碼
模型定義於 GestureRecognizerHelper.kt
檔案:
baseOptionBuilder.setModelAssetPath(MP_RECOGNIZER_TASK)
建立工作
MediaPipe 手勢辨識工具工作會使用 createFromOptions()
函式來設定
執行工作createFromOptions()
函式可接受
設定選項如要進一步瞭解設定選項
請參閱設定選項。
手勢辨識器支援 3 種輸入資料類型:靜態圖片、影片檔案和 即時影像串流您必須指定相應的執行模式 輸入資料類型請選擇與 輸入資料類型,瞭解如何建立工作及執行推論。
圖片
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
影片
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
直播
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = GestureRecognizer.GestureRecognizerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() gestureRecognizer = GestureRecognizer.createFromOptions(context, options)
實作手勢辨識器程式碼範例後,使用者就能切換
處理模式這種方法使得工作建立程式碼變得更加複雜,
可能會不適合您的用途您可以在
setupGestureRecognizer()
函式,用於
GestureRecognizerHelper.kt
檔案。
設定選項
這項工作有下列 Android 應用程式設定選項:
選項名稱 | 說明 | 值範圍 | 預設值 | |
---|---|---|---|---|
runningMode |
設定任務的執行模式。在架構中
模式: 圖片:單一圖片輸入模式。 VIDEO:影片已解碼的影格模式。 LIVE_STREAM:輸入串流模式 擷取的資訊等。在此模式下, resultListener 設定接聽程式來接收結果 以非同步方式載入物件 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
|
numHands |
可偵測的手部數量上限
GestureRecognizer 。
|
Any integer > 0 |
1 |
|
minHandDetectionConfidence |
手部偵測為 而且被認定為成功的手掌偵測模型 | 0.0 - 1.0 |
0.5 |
|
minHandPresenceConfidence |
手部狀態的最小可信度分數 地標偵測模型在手勢辨識器的影片模式和直播模式中, 如果手部地標模型的「在家狀態」信心分數低於 就會觸發手掌偵測模型否則, 輕量手動追蹤演算法, 手勢偵測後續的地標偵測。 | 0.0 - 1.0 |
0.5 |
|
minTrackingConfidence |
要考慮手部追蹤的最低可信度分數 成功。這是手中各部位的定界框 IoU 門檻 目前的影格和最後一個影格在影片模式和串流模式中, 手勢辨識器 (如果追蹤失敗,手勢辨識器會觸發手) 偵測。否則,系統會略過手部偵測作業。 | 0.0 - 1.0 |
0.5 |
|
cannedGesturesClassifierOptions |
罐頭手勢分類器行為的設定選項。罐頭手勢為:["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] |
|
|
|
customGesturesClassifierOptions |
自訂手勢分類器行為的設定選項。 |
|
|
|
resultListener |
設定用來接收分類結果的結果監聽器
以非同步方式觸發手勢辨識功能
只有在執行模式設為「LIVE_STREAM 」時才能使用 |
ResultListener |
不適用 | 不適用 |
errorListener |
設定選用的錯誤事件監聽器。 | ErrorListener |
不適用 | 不適用 |
準備資料
手勢辨識工具適用於圖片、影片檔案和直播影片。工作內容 處理資料輸入預先處理作業,包括調整大小、旋轉和值 以便處理正規化的情況
以下程式碼示範如何發送資料進行處理。這些 樣本包括如何處理圖片、影片檔案、 和串流影片。
圖片
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
影片
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
直播
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
在
手勢辨識器範例程式碼,則會在
GestureRecognizerHelper.kt
敬上
檔案。
執行工作
手勢辨識器使用 recognize
、recognizeForVideo
和 recognizeAsync
函式,用於觸發推論。以手勢辨識來說
預先處理輸入資料, 偵測圖像中的手, 偵測手部
地標和辨識地標的手勢。
以下程式碼示範如何使用工作模型執行處理程序。 這些樣本包括詳細說明如何處理圖片、影片檔案 和即時影像串流
圖片
val result = gestureRecognizer?.recognize(mpImage)
影片
val timestampMs = i * inferenceIntervalMs gestureRecognizer?.recognizeForVideo(mpImage, timestampMs) ?.let { recognizerResult -> resultList.add(recognizerResult) }
直播
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() gestureRecognizer?.recognizeAsync(mpImage, frameTime)
注意事項:
- 以錄影模式或直播模式執行時,你也必須 提供輸入框的時間戳記給手勢辨識器工作。
- 以圖片或影片模式執行時,手勢辨識工具工作會 封鎖目前的執行緒,直到處理完成輸入圖片, 相框。為避免封鎖使用者介面,請在 背景執行緒。
- 在直播模式下執行時,手勢辨識工具工作不會封鎖 但會立即傳回這會叫用結果 每次處理完成後,系統會傳回辨識結果 輸入影格如果在手勢辨識器時呼叫辨識函式 工作正忙於處理另一個影格,這項工作將忽略新的輸入影格。
在
手勢辨識工具範例程式碼、recognize
、recognizeForVideo
和
recognizeAsync
函式定義於
GestureRecognizerHelper.kt
。
檔案。
處理及顯示結果
手勢辨識器會為 辨識工作順利進行結果物件包含圖片座標中的手部地標, 世界座標中的手部地標、慣用手(左/右手),以及手部 所偵測到的手語。
以下範例顯示這項工作的輸出資料範例:
產生的 GestureRecognizerResult
包含四個元件,而每個元件都是陣列,其中每個元素都包含偵測到單隻手的偵測結果。
慣用手設計
慣用手代表偵測到的手是左手還是右手。
手勢
偵測到的手部已辨識出的手勢類別。
地標
共有 21 個手部地標,每個地標都由
x
、y
和z
座標組成。x
和y
座標會依照圖片寬度和z
座標代表地標深度, 手腕的深度就是起點值越小, 地標就是相機鏡頭z
的規模大致與下列指標相同:x
。世界著名地標
世界座標也會顯示 21 個手部地標。每個地標 由
x
、y
和z
組成,代表實際的 3D 座標 公尺,將感應器放在手部的幾何中心。
GestureRecognizerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Gestures:
Categories #0:
score : 0.76893
categoryName : Thumb_Up
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
下圖顯示工作輸出內容的示意圖:
在
手勢辨識工具範例程式碼,即 GestureRecognizerResultsAdapter
類別中的
GestureRecognizerResultsAdapter.kt
檔案會處理結果。