Hướng dẫn phát hiện đối tượng cho Android

Nhiệm vụ Trình phát hiện đối tượng cho phép bạn phát hiện sự hiện diện và vị trí của nhiều các lớp đối tượng. Ví dụ: trình phát hiện vật thể có thể xác định vị trí của những chú chó trong một hình ảnh. Các hướng dẫn này chỉ cho bạn cách sử dụng tác vụ Trình phát hiện đối tượng trên Android. Mã mẫu được mô tả trong các hướng dẫn này có trên GitHub. Bạn có thể xem công việc này trong thực tế bằng cách xem Bản minh hoạ trên web. Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của nhiệm vụ này, xem phần Tổng quan.

Ví dụ về mã

Mã ví dụ về MediaPipe Tasks là cách triển khai đơn giản của một Trình phát hiện đối tượng dành cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để liên tục phát hiện các đối tượng, đồng thời cũng có thể sử dụng hình ảnh và video từ thư viện thiết bị để phát hiện tĩnh các đối tượng.

Bạn có thể sử dụng ứng dụng này làm điểm khởi đầu cho ứng dụng Android của riêng mình hoặc tham chiếu đến ứng dụng đó khi sửa đổi ứng dụng hiện có. Mã ví dụ về Trình phát hiện đối tượng được lưu trữ trên GitHub.

Tải mã xuống

Các hướng dẫn sau đây chỉ cho bạn cách tạo bản sao trên máy của ví dụ bằng công cụ dòng lệnh git.

Cách tải mã ví dụ xuống:

  1. Sao chép kho lưu trữ git bằng lệnh sau:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Bạn có thể định cấu hình thực thể git để sử dụng quy trình thanh toán thưa thớt, vì vậy, bạn chỉ có các tệp cho ứng dụng mẫu Trình phát hiện đối tượng:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/object_detection/android
    

Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio rồi chạy ứng dụng. Để biết hướng dẫn, hãy xem Hướng dẫn thiết lập dành cho Android.

Thành phần chính

Các tệp sau chứa mã quan trọng cho Trình phát hiện đối tượng ví dụ về ứng dụng:

  • ObjectDetectorHelper.kt – Khởi chạy trình phát hiện đối tượng, đồng thời xử lý mô hình và uỷ quyền lựa chọn
  • MainActivity.kt – Triển khai ứng dụng và tập hợp các thành phần giao diện người dùng
  • OverlayView.kt – Xử lý và hiển thị kết quả

Thiết lập

Phần này mô tả các bước chính để thiết lập môi trường phát triển và mã dự án để sử dụng Trình phát hiện đối tượng. Để biết thông tin chung về thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Android.

Phần phụ thuộc

Trình phát hiện đối tượng sử dụng thư viện com.google.mediapipe:tasks-vision. Thêm nội dung này vào tệp build.gradle của Dự án phát triển ứng dụng Android. Nhập các phần phụ thuộc bắt buộc bằng mã sau:

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

Mẫu

Nhiệm vụ Trình phát hiện đối tượng MediaPipe yêu cầu một mô hình đã huấn luyện tương thích với công việc. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có dành cho Trình phát hiện đối tượng, hãy xem tổng quan về nhiệm vụ phần Mô hình.

Chọn và tải mô hình xuống rồi lưu trữ mô hình đó trong thư mục dự án:

<dev-project-root>/src/main/assets

Sử dụng phương thức BaseOptions.Builder.setModelAssetPath() để chỉ định đường dẫn mà mô hình sử dụng. Để xem ví dụ về mã, hãy xem phần tiếp theo.

Tạo việc cần làm

Bạn có thể sử dụng hàm createFromOptions để tạo công việc. Chiến lược phát hành đĩa đơn Hàm createFromOptions chấp nhận các lựa chọn cấu hình bao gồm cả chạy chế độ, ngôn ngữ tên hiển thị, số lượng kết quả tối đa, ngưỡng tin cậy, danh mục cho phép và danh sách từ chối. Nếu tuỳ chọn cấu hình không được chỉ định, giá trị mặc định sẽ được sử dụng. Để biết thêm thông tin về các tuỳ chọn cấu hình, xem phần Tổng quan về cấu hình.

Tác vụ của Trình phát hiện đối tượng hỗ trợ 3 loại dữ liệu đầu vào: hình ảnh tĩnh, tệp video và luồng video trực tiếp. Bạn cần chỉ định chế độ đang chạy tương ứng với loại dữ liệu đầu vào của bạn khi tạo công việc. Chọn thẻ tương ứng với loại dữ liệu đầu vào để xem cách tạo tác vụ và chạy suy luận.

Bài đăng có hình ảnh

ObjectDetectorOptions options =
  ObjectDetectorOptions.builder()
    .setBaseOptions(BaseOptions.builder().setModelAssetPath(‘model.tflite’).build())
    .setRunningMode(RunningMode.IMAGE)
    .setMaxResults(5)
    .build();
objectDetector = ObjectDetector.createFromOptions(context, options);
    

Video

ObjectDetectorOptions options =
  ObjectDetectorOptions.builder()
    .setBaseOptions(BaseOptions.builder().setModelAssetPath(‘model.tflite’).build())
    .setRunningMode(RunningMode.VIDEO)
    .setMaxResults(5)
    .build();
objectDetector = ObjectDetector.createFromOptions(context, options);
    

Sự kiện phát trực tiếp

ObjectDetectorOptions options =
  ObjectDetectorOptions.builder()
    .setBaseOptions(BaseOptions.builder().setModelAssetPath(model.tflite).build())
    .setRunningMode(RunningMode.LIVE_STREAM)
    .setMaxResults(5)
    .setResultListener((result, inputImage) -> {
      // Process the detection result here.
    })
    .setErrorListener((result, inputImage) -> {
      // Process the classification errors here.
    })
   .build();
objectDetector = ObjectDetector.createFromOptions(context, options);
    

Việc triển khai mã mẫu Trình phát hiện đối tượng cho phép người dùng chuyển đổi giữa chế độ xử lý. Phương pháp này làm cho mã tạo tác vụ trở nên phức tạp hơn và có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong ObjectDetectorHelper lớp setupObjectDetector().

Các lựa chọn về cấu hình

Nhiệm vụ này có các lựa chọn cấu hình sau đây cho ứng dụng Android:

Tên lựa chọn Mô tả Khoảng giá trị Giá trị mặc định
runningMode Thiết lập chế độ chạy cho tác vụ. Có ba chế độ:

HÌNH ẢNH: Chế độ cho đầu vào một hình ảnh.

VIDEO: Chế độ cho các khung đã giải mã của video.

LIVE_STREAM: Chế độ phát trực tiếp đầu vào chẳng hạn như từ máy ảnh. Trong chế độ này, ResultsListener phải là để thiết lập trình nghe để nhận kết quả một cách không đồng bộ.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
displayNamesLocales Đặt ngôn ngữ của nhãn để sử dụng cho tên hiển thị được cung cấp trong siêu dữ liệu về mô hình của công việc (nếu có). Mặc định là en cho Tiếng Anh. Bạn có thể thêm nhãn đã bản địa hoá vào siêu dữ liệu của mô hình tuỳ chỉnh bằng TensorFlow Lite Metadata Writer API Mã ngôn ngữ vi
maxResults Đặt số lượng kết quả phát hiện có điểm số cao nhất (không bắt buộc) thành lợi nhuận. Bất kỳ số dương nào -1 (trả về tất cả kết quả)
scoreThreshold Đặt ngưỡng điểm số dự đoán ghi đè ngưỡng điểm được cung cấp trong siêu dữ liệu của mô hình (nếu có). Những kết quả thấp hơn giá trị này sẽ bị từ chối. Số thực bất kỳ Chưa đặt
categoryAllowlist Đặt danh sách các tên danh mục được phép (không bắt buộc). Nếu ô trống, kết quả phát hiện có tên danh mục không nằm trong tập hợp này sẽ là đã lọc ra. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua. Lựa chọn này loại trừ lẫn nhau với categoryDenylist và sử dụng cả hai đều dẫn đến lỗi. Chuỗi bất kỳ Chưa đặt
categoryDenylist Đặt danh sách tên danh mục không được phép (không bắt buộc). Nếu kết quả phát hiện không trống, có tên danh mục nằm trong tập hợp này sẽ được lọc bị loại. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua. Lựa chọn này mang tính tương đồng chỉ có với categoryAllowlist và sử dụng cả hai đều dẫn đến lỗi. Chuỗi bất kỳ Chưa đặt
resultListener Thiết lập trình nghe kết quả để nhận kết quả phát hiện không đồng bộ khi trình phát hiện đối tượng đang phát trực tiếp . Bạn chỉ có thể sử dụng lựa chọn này khi đặt runningMode thành LIVE_STREAM. Không áp dụng Chưa đặt

Chuẩn bị dữ liệu

Bạn cần chuyển đổi khung hoặc hình ảnh đầu vào thành com.google.mediapipe.framework.image.MPImage trước khi truyền đối tượng đó đến phương thức Trình phát hiện đối tượng.

Các ví dụ sau giải thích và trình bày cách chuẩn bị dữ liệu để xử lý cho từng loại dữ liệu có sẵn:

Bài đăng có hình ảnh

import com.google.mediapipe.framework.image.BitmapImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Load an image on the users device as a Bitmap object using BitmapFactory.

// Convert an Androids Bitmap object to a MediaPipes Image object.
Image mpImage = new BitmapImageBuilder(bitmap).build();
    

Video

import com.google.mediapipe.framework.image.BitmapImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Load a video file on the user's device using MediaMetadataRetriever

// From the videos metadata, load the METADATA_KEY_DURATION and
// METADATA_KEY_VIDEO_FRAME_COUNT values. Use these values
// to calculate the timestamp of each frame later.

// Loop through the video and load each frame as a Bitmap object.

// Convert the Androids Bitmap object to a MediaPipes Image object.
Image mpImage = new BitmapImageBuilder(frame).build();
    

Sự kiện phát trực tiếp

import com.google.mediapipe.framework.image.MediaImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Create a CameraXs ImageAnalysis to continuously receive frames
// from the devices camera. Configure it to output frames in RGBA_8888
// format to match with what is required by the model.

// For each Androids ImageProxy object received from the ImageAnalysis,
// extract the encapsulated Androids Image object and convert it to
// a MediaPipes Image object.
android.media.Image mediaImage = imageProxy.getImage()
MPImage mpImage = new MediaImageBuilder(mediaImage).build();
    

Trong mã ví dụ về Trình phát hiện đối tượng, việc chuẩn bị dữ liệu được xử lý trong ObjectDetectorHelper trong detectImage(), detectVideoFile(), detectLivestreamFrame() .

Chạy tác vụ

Tùy thuộc vào loại dữ liệu bạn đang xử lý, hãy sử dụng ObjectDetector.detect...() dành riêng cho loại dữ liệu đó. Sử dụng detect() đối với từng hình ảnh, detectForVideo() cho khung hình trong tệp video và detectAsync() đối với luồng video. Khi bạn phát hiện một luồng video, hãy đảm bảo bạn chạy các phát hiện trên một chuỗi riêng để tránh chặn luồng giao diện người dùng.

Các mã mẫu sau đây là ví dụ đơn giản về cách chạy Trình phát hiện đối tượng ở các chế độ dữ liệu sau:

Bài đăng có hình ảnh

ObjectDetectorResult detectionResult = objectDetector.detect(image);
    

Video

// Calculate the timestamp in milliseconds of the current frame.
long frame_timestamp_ms = 1000 * video_duration * frame_index / frame_count;

// Run inference on the frame.
ObjectDetectorResult detectionResult =
    objectDetector.detectForVideo(image, frameTimestampMs);
    

Sự kiện phát trực tiếp

// Run inference on the frame. The detection results will be available
// via the `resultListener` provided in the `ObjectDetectorOptions` when
// the object detector was created.
objectDetector.detectAsync(image, frameTimestampMs);
    

Ví dụ về mã Trình phát hiện đối tượng cho thấy cách triển khai từng yếu tố trong số này các chế độ chi tiết hơn detect()! detectVideoFile(), và detectAsync(). Mã ví dụ cho phép người dùng chuyển đổi giữa các chế độ xử lý đây có thể không cần thiết cho trường hợp sử dụng của bạn.

Xin lưu ý những điều sau:

  • Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung đầu vào cho tác vụ Trình phát hiện đối tượng.
  • Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình phát hiện đối tượng sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh đầu vào hoặc khung. Để tránh chặn luồng hiện tại, hãy thực thi quá trình xử lý trong một luồng trong nền.
  • Khi chạy ở chế độ phát trực tiếp, tác vụ Trình phát hiện đối tượng sẽ không chặn luồng hiện tại nhưng trả về ngay lập tức. Tham số này sẽ gọi ra kết quả mỗi khi xử lý xong một trình xử lý khung đầu vào. Nếu hàm phát hiện được gọi khi thực hiện tác vụ Trình phát hiện đối tượng đang bận xử lý một khung khác, thì khung nhập mới sẽ bị bỏ qua.

Xử lý và hiện kết quả

Sau khi chạy dự đoán, tác vụ Trình phát hiện đối tượng sẽ trả về một Đối tượng ObjectDetectorResult mô tả các đối tượng mà đối tượng này tìm thấy hình ảnh đầu vào.

Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:

ObjectDetectorResult:
 Detection #0:
  Box: (x: 355, y: 133, w: 190, h: 206)
  Categories:
   index       : 17
   score       : 0.73828
   class name  : dog
 Detection #1:
  Box: (x: 103, y: 15, w: 138, h: 369)
  Categories:
   index       : 17
   score       : 0.73047
   class name  : dog

Hình ảnh sau đây minh hoạ kết quả của tác vụ:

Mã ví dụ về Trình phát hiện đối tượng minh hoạ cách hiển thị tính năng phát hiện kết quả được trả về từ tác vụ, hãy xem OverlayView để biết thêm chi tiết.