Tác vụ Phân loại âm thanh MediaPipe cho phép bạn phân loại dữ liệu âm thanh. Bạn có thể sử dụng nhiệm vụ này để xác định các sự kiện âm thanh từ một nhóm các danh mục đã được huấn luyện. Các hướng dẫn cho bạn cách sử dụng Trình phân loại âm thanh cho Nút và các ứng dụng web.
Bạn có thể xem công việc này trong thực tế bằng cách xem bản minh hoạ. Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của nhiệm vụ này, xem phần Tổng quan.
Ví dụ về mã
Mã ví dụ cho Trình phân loại âm thanh cung cấp cách triển khai hoàn chỉnh mã này trong JavaScript để bạn tham khảo. Mã này giúp bạn kiểm thử tác vụ này và bắt đầu xây dựng ứng dụng phân loại âm thanh của riêng bạn. Bạn có thể xem, chạy và chỉnh sửa Mã ví dụ của Trình phân loại âm thanh chỉ bằng trình duyệt web.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và mã dự án cụ thể để sử dụng Audio Classifier (Phân loại âm thanh). Để biết thông tin chung về thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho web.
Gói JavaScript
Mã Phân loại âm thanh có trên MediaPipe @mediapipe/tasks-audio
Gói Trạng thái đã hiển thị Bạn có thể
tìm và tải các thư viện này xuống qua các đường liên kết được cung cấp trong nền tảng
Hướng dẫn thiết lập.
Bạn có thể cài đặt các gói cần thiết bằng mã sau để thử nghiệm cục bộ bằng lệnh sau:
npm install @mediapipe/tasks-audio
Nếu bạn muốn nhập mã tác vụ thông qua mạng phân phối nội dung (CDN) hãy thêm mã sau vào thẻ trong tệp HTML của bạn:
<!-- Replace "my-cdn-service.com" with your CDN -->
<head>
<script src="https://my-cdn-service.com/npm/@mediapipe/tasks-audio/audio_bundle.js"
crossorigin="anonymous"></script>
</head>
Mẫu
Tác vụ Phân loại âm thanh MediaPipe cần một mô hình đã huấn luyện tương thích với công việc. Để biết thêm thông tin về các mô hình đã qua đào tạo dành cho tính năng Phân loại âm thanh, hãy xem tổng quan về nhiệm vụ phần Mô hình.
Chọn và tải mô hình xuống rồi lưu trữ mô hình đó trong thư mục dự án, ví dụ:
<dev-project-root>/app/shared/models/
Tạo việc cần làm
Sử dụng một trong các hàm createFrom...()
của Trình phân loại âm thanh để
chuẩn bị tác vụ để chạy các dự đoán. Sử dụng createFromModelPath()
có đường dẫn tương đối hoặc tuyệt đối đến tệp mô hình đã huấn luyện.
Nếu mô hình đã được tải vào bộ nhớ, bạn có thể sử dụng phương thức
createFromModelBuffer()
.
Ví dụ về mã bên dưới minh hoạ việc sử dụng hàm createFromOptions()
để
thiết lập việc cần làm. Hàm createFromOptions
cho phép bạn tuỳ chỉnh
Trình phân loại âm thanh với các lựa chọn cấu hình. Để biết thêm thông tin về cấu hình
hãy xem phần Tuỳ chọn cấu hình.
Mã sau đây minh hoạ cách tạo và định cấu hình tác vụ bằng công cụ tuỳ chỉnh tùy chọn:
const audio = await FilesetResolver.forAudioTasks(
"https://my-cdn-service.com/npm/@mediapipe/tasks-audio/wasm"
);
const audioClassifier = await AudioClassifier.createFromOptions(audio, {
baseOptions: {
modelAssetPath:
"https://tfhub.dev/google/lite-model/yamnet/classification/tflite/1?lite-format=tflite"
}
});
Việc triển khai mã ví dụ cho Trình phân loại âm thanh cho phép người dùng chọn giữa
chế độ xử lý. Phương pháp này làm cho mã tạo tác vụ trở nên phức tạp hơn và
có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy các chế độ khác nhau
trong runAudioClassification()
và runStreamingAudioClassification()
của
example code
.
Các lựa chọn về cấu hình
Tác vụ này có các lựa chọn cấu hình sau cho Web và JavaScript ứng dụng:
Tên lựa chọn | Mô tả | Khoảng giá trị | Giá trị mặc định |
---|---|---|---|
displayNamesLocale |
Đặt ngôn ngữ của nhãn để sử dụng cho tên hiển thị được cung cấp trong
siêu dữ liệu về mô hình của công việc (nếu có). Mặc định là en cho
Tiếng Anh. Bạn có thể thêm nhãn đã bản địa hoá vào siêu dữ liệu của mô hình tuỳ chỉnh
bằng TensorFlow Lite Metadata Writer API
| Mã ngôn ngữ | vi |
maxResults |
Đặt số lượng kết quả phân loại có điểm số cao nhất (không bắt buộc) thành lợi nhuận. Nếu < 0, tất cả kết quả có sẵn sẽ được trả về. | Bất kỳ số dương nào | -1 |
scoreThreshold |
Đặt ngưỡng điểm số dự đoán ghi đè ngưỡng điểm được cung cấp trong siêu dữ liệu của mô hình (nếu có). Những kết quả thấp hơn giá trị này sẽ bị từ chối. | [0,0, 1] | Chưa đặt |
categoryAllowlist |
Đặt danh sách các tên danh mục được phép (không bắt buộc). Nếu ô trống,
kết quả phân loại có tên danh mục không nằm trong tập hợp này sẽ là
đã lọc ra. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua.
Lựa chọn này loại trừ lẫn nhau với categoryDenylist và sử dụng
cả hai đều dẫn đến lỗi. |
Chuỗi bất kỳ | Chưa đặt |
categoryDenylist |
Đặt danh sách tên danh mục không được phép (không bắt buộc). Nếu
kết quả phân loại không trống, có tên danh mục nằm trong tập hợp này sẽ được lọc
bị loại. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua. Lựa chọn này mang tính tương đồng
chỉ có với categoryAllowlist và sử dụng cả hai đều dẫn đến lỗi. |
Chuỗi bất kỳ | Chưa đặt |
Chuẩn bị dữ liệu
Công cụ phân loại âm thanh hoạt động với đoạn âm thanh và luồng âm thanh, đồng thời có thể tương thích với âm thanh ở bất kỳ định dạng nào mà trình duyệt chính hỗ trợ. Tác vụ sẽ xử lý dữ liệu tiền xử lý đầu vào, bao gồm lấy mẫu lại, lưu vào bộ đệm và lấy khung hình.
Chạy tác vụ
Trình phân loại âm thanh sử dụng phương thức classify()
để chạy thông tin suy luận cho đoạn âm thanh
hoặc luồng âm thanh. Audio Classifier API trả về dữ liệu có thể
cho các danh mục sự kiện âm thanh được nhận dạng trong âm thanh đầu vào.
Các lệnh gọi đến phương thức classify()
của Trình phân loại âm thanh chạy đồng bộ và chặn
luồng giao diện người dùng. Nếu bạn phân loại âm thanh từ micrô của một thiết bị,
mỗi mức phân loại sẽ chặn luồng chính. Bạn có thể ngăn chặn điều này bằng cách
triển khai trình thực thi web để chạy classify()
trên một luồng khác.
Mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ:
Đoạn âm thanh
// Create audio buffer const sample = await response.arrayBuffer(); const audioBuffer = await audioCtx.decodeAudioData(sample); // Use AudioClassifier to run classification const results = audioClassifier.classify( audioBuffer.getChannelData(0), audioBuffer.sampleRate );
Luồng âm thanh
stream = await navigator.mediaDevices.getUserMedia(constraints); audioCtx = new AudioContext({ sampleRate: 16000 }); const source = audioCtx.createMediaStreamSource(stream); const scriptNode = audioCtx.createScriptProcessor(16384, 1, 1); scriptNode.onaudioprocess = function (audioProcessingEvent) { const inputBuffer = audioProcessingEvent.inputBuffer; let inputData = inputBuffer.getChannelData(0); // Classify the audio const result = audioClassifier.classify(inputData); const categories = result[0].classifications[0].categories; };
Để triển khai hoàn chỉnh hơn khi chạy tác vụ Trình phân loại âm thanh, hãy xem mã ví dụ.
Xử lý và hiện kết quả
Sau khi bạn hoàn tất lần chạy dự đoán, tác vụ Trình phân loại âm thanh sẽ trả về một giá trị
Đối tượng AudioClassifierResult
chứa danh sách các danh mục có thể có
cho các đối tượng trong âm thanh đầu vào.
AudioClassifierResult:
Timestamp in microseconds: 100
ClassificationResult #0:
Timestamp in microseconds: 100
Classifications #0 (single classification head):
head index: 0
category #0:
category name: "Speech"
score: 0.6
index: 0
category #1:
category name: "Music"
score: 0.2
index: 1
Mã ví dụ của Trình phân loại âm thanh minh hoạ cách hiển thị phân loại kết quả được trả về từ tác vụ, hãy xem mã ví dụ để biết thông tin chi tiết.