Tác vụ của MediaPipe Image Embeddedder (Trình nhúng hình ảnh MediaPipe) cho phép bạn chuyển đổi dữ liệu hình ảnh thành bản trình bày dạng số hoàn thành các nhiệm vụ xử lý hình ảnh liên quan đến học máy, chẳng hạn như so sánh điểm tương đồng của hai hình ảnh. Những hướng dẫn này chỉ cho bạn cách sử dụng Công cụ nhúng hình ảnh với ứng dụng Android.
Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của nhiệm vụ này, xem phần Tổng quan.
Ví dụ về mã
Mã ví dụ MediaPipe Tasks là cách triển khai đơn giản của một Trình nhúng hình ảnh dành cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để liên tục nhúng hình ảnh và cũng có thể chạy trình nhúng trên các tệp hình ảnh được lưu trữ trên thiết bị.
Bạn có thể sử dụng ứng dụng này làm điểm khởi đầu cho ứng dụng Android của riêng mình hoặc tham chiếu đến ứng dụng đó khi sửa đổi ứng dụng hiện có. Mã ví dụ về Trình nhúng hình ảnh được lưu trữ trên GitHub.
Tải mã xuống
Các hướng dẫn sau đây chỉ cho bạn cách tạo bản sao trên máy của ví dụ bằng công cụ dòng lệnh git.
Cách tải mã ví dụ xuống:
- Sao chép kho lưu trữ git bằng lệnh sau:
git clone https://github.com/google-ai-edge/mediapipe-samples
- Bạn có thể định cấu hình phiên bản git để sử dụng quy trình thanh toán thưa thớt, vì vậy, bạn có
chỉ các tệp cho ứng dụng ví dụ về Trình nhúng hình ảnh:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/image_embedder/android
Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio rồi chạy ứng dụng. Để biết hướng dẫn, hãy xem Hướng dẫn thiết lập cho Android.
Thành phần chính
Các tệp sau đây chứa mã quan trọng cho ví dụ về công cụ nhúng hình ảnh này ứng dụng:
- ImageEmbedderHelper.kt: Khởi động trình nhúng hình ảnh, đồng thời xử lý mô hình và uỷ quyền lựa chọn.
- MainActivity.kt: Triển khai ứng dụng và tập hợp các thành phần giao diện người dùng.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và lập trình để sử dụng Công cụ nhúng hình ảnh. Để biết thông tin chung về cách thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm cả phiên bản nền tảng hãy xem Hướng dẫn thiết lập cho Android.
Phần phụ thuộc
Công cụ nhúng hình ảnh sử dụng thư viện com.google.mediapipe:tasks-vision
. Thêm nội dung này
phần phụ thuộc vào tệp build.gradle
của dự án phát triển ứng dụng Android.
Nhập các phần phụ thuộc bắt buộc bằng mã sau:
dependencies {
...
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
Mẫu
Nhiệm vụ của Trình nhúng hình ảnh MediaPipe cần có một mô hình đã qua huấn luyện tương thích với công việc. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có cho Trình nhúng hình ảnh, hãy xem tổng quan về nhiệm vụ phần Mô hình.
Chọn và tải mô hình xuống rồi lưu trữ trong thư mục dự án:
<dev-project-root>/src/main/assets
Chỉ định đường dẫn của mô hình trong tham số ModelAssetPath
. Trong
mã ví dụ, mô hình được xác định trong hàm setupImageEmbedder()
trong
ImageEmbedderHelper.kt
tệp:
Sử dụng phương thức BaseOptions.Builder.setModelAssetPath()
để chỉ định đường dẫn
mà mô hình sử dụng. Phương thức này sẽ được đề cập trong đoạn mã ví dụ trong phần tiếp theo
.
Tạo việc cần làm
Bạn có thể sử dụng hàm createFromOptions
để tạo công việc. Chiến lược phát hành đĩa đơn
Hàm createFromOptions
chấp nhận các lựa chọn cấu hình để đặt trình nhúng
. Để biết thêm thông tin về các chế độ cấu hình, hãy xem phần Cấu hình
Tổng quan.
Tác vụ Trình nhúng hình ảnh hỗ trợ 3 loại dữ liệu đầu vào: ảnh tĩnh, tệp video, và luồng video trực tiếp. Bạn cần chỉ định chế độ đang chạy tương ứng với loại dữ liệu đầu vào của bạn khi tạo công việc. Chọn thẻ tương ứng với loại dữ liệu đầu vào để xem cách tạo tác vụ và chạy suy luận.
Bài đăng có hình ảnh
ImageEmbedderOptions options = ImageEmbedderOptions.builder() .setBaseOptions( BaseOptions.builder().setModelAssetPath("model.tflite").build()) .setQuantize(true) .setRunningMode(RunningMode.IMAGE) .build(); imageEmbedder = ImageEmbedder.createFromOptions(context, options);
Video
ImageEmbedderOptions options = ImageEmbedderOptions.builder() .setBaseOptions( BaseOptions.builder().setModelAssetPath("model.tflite").build()) .setQuantize(true) .setRunningMode(RunningMode.VIDEO) .build(); imageEmbedder = ImageEmbedder.createFromOptions(context, options);
Sự kiện phát trực tiếp
ImageEmbedderOptions options = ImageEmbedderOptions.builder() .setBaseOptions( BaseOptions.builder().setModelAssetPath("model.tflite").build()) .setQuantize(true) .setRunningMode(RunningMode.LIVE_STREAM) .setResultListener((result, inputImage) -> { // Process the embedding result here. }) .build(); imageEmbedder = ImageEmbedder.createFromOptions(context, options);
Triển khai mã ví dụ cho phép người dùng chuyển đổi giữa các chế độ xử lý
chế độ. Phương pháp này khiến mã tạo tác vụ phức tạp hơn và có thể không
phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong
Hàm setupImageEmbedder()
trong
ImageEmbedderHelper.kt
.
Các lựa chọn về cấu hình
Nhiệm vụ này có các lựa chọn cấu hình sau đây cho ứng dụng Android:
Tên lựa chọn | Mô tả | Khoảng giá trị | Giá trị mặc định |
---|---|---|---|
runningMode |
Thiết lập chế độ chạy cho tác vụ. Có ba
chế độ: HÌNH ẢNH: Chế độ cho đầu vào một hình ảnh. VIDEO: Chế độ cho khung đã giải mã của video. LIVE_STREAM: Chế độ phát trực tiếp đầu vào chẳng hạn như từ máy ảnh. Trong chế độ này, resultsListener phải để thiết lập trình nghe để nhận kết quả một cách không đồng bộ. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
l2_normalize |
Liệu có chuẩn hoá vectơ đối tượng được trả về với chuẩn L2 hay không. Chỉ sử dụng tuỳ chọn này nếu mô hình không chứa đoạn mã gốc L2_NORMALIZATION TFLite Op. Trong hầu hết các trường hợp, điều này đã đúng và Do đó, quá trình chuẩn hoá L2 đạt được thông qua suy luận TFLite mà không cần cho tuỳ chọn này. | Boolean |
False |
quantize |
Liệu có cần lượng tử hoá mục nhúng trả về thành byte qua hay không lượng tử vô hướng. Các lượt nhúng được ngầm xem là quy chuẩn đơn vị và do đó mọi chiều đều được đảm bảo có giá trị trong [-1.0, 1.0]. Sử dụng tùy chọn l2_normalize nếu không phải vậy. | Boolean |
False |
resultListener |
Thiết lập trình nghe kết quả để nhận kết quả nhúng
không đồng bộ khi Trình nhúng hình ảnh đang phát trực tiếp
. Chỉ sử dụng được khi bạn đặt chế độ chạy thành LIVE_STREAM |
Không áp dụng | Chưa đặt |
errorListener |
Đặt một trình nghe lỗi không bắt buộc. | Không áp dụng | Chưa đặt |
Chuẩn bị dữ liệu
Công cụ nhúng hình ảnh có thể xử lý hình ảnh, tệp video và video phát trực tiếp. Việc cần làm xử lý tiền xử lý đầu vào dữ liệu, bao gồm đổi kích thước, xoay và giá trị chuẩn hoá dữ liệu.
Bạn cần chuyển đổi khung hoặc hình ảnh đầu vào thành
com.google.mediapipe.framework.image.MPImage
trước khi truyền đối tượng đó đến phương thức
Nhiệm vụ của Trình nhúng hình ảnh.
Bài đăng có hình ảnh
import com.google.mediapipe.framework.image.BitmapImageBuilder; import com.google.mediapipe.framework.image.MPImage; // Load an image on the user’s device as a Bitmap object using BitmapFactory. // Convert an Android’s Bitmap object to a MediaPipe’s Image object. Image mpImage = new BitmapImageBuilder(bitmap).build();
Video
import com.google.mediapipe.framework.image.BitmapImageBuilder; import com.google.mediapipe.framework.image.MPImage; // Load a video file on the user's device using MediaMetadataRetriever // From the video’s metadata, load the METADATA_KEY_DURATION and // METADATA_KEY_VIDEO_FRAME_COUNT value. You’ll need them // to calculate the timestamp of each frame later. // Loop through the video and load each frame as a Bitmap object. // Convert the Android’s Bitmap object to a MediaPipe’s Image object. Image mpImage = new BitmapImageBuilder(frame).build();
Sự kiện phát trực tiếp
import com.google.mediapipe.framework.image.MediaImageBuilder; import com.google.mediapipe.framework.image.MPImage; // Create a CameraX’s ImageAnalysis to continuously receive frames // from the device’s camera. Configure it to output frames in RGBA_8888 // format to match with what is required by the model. // For each Android’s ImageProxy object received from the ImageAnalysis, // extract the encapsulated Android’s Image object and convert it to // a MediaPipe’s Image object. android.media.Image mediaImage = imageProxy.getImage() Image mpImage = new MediaImageBuilder(mediaImage).build();
Trong mã ví dụ, việc chuẩn bị dữ liệu được xử lý trong ImageEmbedderHelper.kt .
Chạy tác vụ
Bạn có thể gọi hàm embed
tương ứng với chế độ chạy để kích hoạt
suy luận. Image Nhúng API trả về các vectơ nhúng cho dữ liệu đầu vào
hình ảnh hoặc khung.
Bài đăng có hình ảnh
ImageEmbedderResult embedderResult = imageEmbedder.embed(image);
Video
// Calculate the timestamp in milliseconds of the current frame. long frame_timestamp_ms = 1000 * video_duration * frame_index / frame_count; // Run inference on the frame. ImageEmbedderResult embedderResult = imageEmbedder.embedForVideo(image, frameTimestampMs);
Sự kiện phát trực tiếp
// Run inference on the frame. The embedding results will be available // via the `resultListener` provided in the `ImageEmbedderOptions` when // the image embedder was created. imageEmbedder.embedAsync(image, frameTimestampMs);
Xin lưu ý những điều sau:
- Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung nhập cho tác vụ của Trình nhúng hình ảnh.
- Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình nhúng hình ảnh sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh đầu vào hoặc khung. Để tránh chặn luồng hiện tại, hãy thực thi quá trình xử lý trong một luồng trong nền.
- Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhúng hình ảnh sẽ không chặn
luồng hiện tại nhưng trả về ngay lập tức. Tham số này sẽ gọi ra kết quả
mỗi khi xử lý xong một trình xử lý
khung đầu vào. Nếu hàm
embedAsync
được gọi khi Trình nhúng hình ảnh tác vụ đang bận xử lý một khung khác, tác vụ sẽ bỏ qua khung đầu vào mới.
Trong mã ví dụ, hàm embed
được định nghĩa trong
ImageEmbedderHelper.kt
.
Xử lý và hiện kết quả
Sau khi chạy dự đoán, tác vụ Trình nhúng hình ảnh sẽ trả về một ImageEmbedderResult
đối tượng chứa danh sách các mục nhúng (dấu phẩy động hoặc
lượng tử hoá vô hướng) cho hình ảnh đầu vào.
Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:
ImageEmbedderResult:
Embedding #0 (sole embedding head):
float_embedding: {0.0, 0.0, ..., 0.0, 1.0, 0.0, 0.0, 2.0}
head_index: 0
Kết quả này thu được bằng cách nhúng hình ảnh sau:
Bạn có thể so sánh điểm tương đồng của hai nhúng bằng cách sử dụng
Hàm ImageEmbedder.cosineSimilarity
. Hãy xem mã sau đây để biết
ví dụ:
// Compute cosine similarity.
double similarity = ImageEmbedder.cosineSimilarity(
result.embeddingResult().embeddings().get(0),
otherResult.embeddingResult().embeddings().get(0));