Hướng dẫn phân loại âm thanh cho web

Tác vụ Phân loại âm thanh MediaPipe cho phép bạn phân loại dữ liệu âm thanh. Bạn có thể sử dụng nhiệm vụ này để xác định các sự kiện âm thanh từ một nhóm các danh mục đã được huấn luyện. Các hướng dẫn cho bạn cách sử dụng Trình phân loại âm thanh cho Nút và các ứng dụng web.

Bạn có thể xem công việc này trong thực tế bằng cách xem bản minh hoạ. Để biết thêm thông tin về tính năng, kiểu máy và các lựa chọn cấu hình của nhiệm vụ này, xem phần Tổng quan.

Ví dụ về mã

Mã ví dụ cho Trình phân loại âm thanh cung cấp cách triển khai hoàn chỉnh mã này trong JavaScript để bạn tham khảo. Mã này giúp bạn kiểm thử tác vụ này và bắt đầu xây dựng ứng dụng phân loại âm thanh của riêng bạn. Bạn có thể xem, chạy và chỉnh sửa Mã ví dụ của Trình phân loại âm thanh chỉ bằng trình duyệt web.

Thiết lập

Phần này mô tả các bước chính để thiết lập môi trường phát triển và mã dự án cụ thể để sử dụng Audio Classifier (Phân loại âm thanh). Để biết thông tin chung về thiết lập môi trường phát triển để sử dụng các tác vụ MediaPipe, bao gồm yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho web.

Gói JavaScript

Mã Phân loại âm thanh có trên MediaPipe @mediapipe/tasks-audio Gói Trạng thái đã hiển thị Bạn có thể tìm và tải các thư viện này xuống qua các đường liên kết được cung cấp trong nền tảng Hướng dẫn thiết lập.

Bạn có thể cài đặt các gói cần thiết bằng mã sau để thử nghiệm cục bộ bằng lệnh sau:

npm install @mediapipe/tasks-audio

Nếu bạn muốn nhập mã tác vụ thông qua mạng phân phối nội dung (CDN) hãy thêm mã sau vào thẻ trong tệp HTML của bạn:

<!-- Replace "my-cdn-service.com" with your CDN -->
<head>
  <script src="https://my-cdn-service.com/npm/@mediapipe/tasks-audio/audio_bundle.js"
    crossorigin="anonymous"></script>
</head>

Mẫu

Tác vụ Phân loại âm thanh MediaPipe cần một mô hình đã huấn luyện tương thích với công việc. Để biết thêm thông tin về các mô hình đã qua đào tạo dành cho tính năng Phân loại âm thanh, hãy xem tổng quan về nhiệm vụ phần Mô hình.

Chọn và tải mô hình xuống rồi lưu trữ mô hình đó trong thư mục dự án, ví dụ:

<dev-project-root>/app/shared/models/

Tạo việc cần làm

Sử dụng một trong các hàm createFrom...() của Trình phân loại âm thanh để chuẩn bị tác vụ để chạy các dự đoán. Sử dụng createFromModelPath() có đường dẫn tương đối hoặc tuyệt đối đến tệp mô hình đã huấn luyện. Nếu mô hình đã được tải vào bộ nhớ, bạn có thể sử dụng phương thức createFromModelBuffer().

Ví dụ về mã bên dưới minh hoạ việc sử dụng hàm createFromOptions() để thiết lập việc cần làm. Hàm createFromOptions cho phép bạn tuỳ chỉnh Trình phân loại âm thanh với các lựa chọn cấu hình. Để biết thêm thông tin về cấu hình hãy xem phần Tuỳ chọn cấu hình.

Mã sau đây minh hoạ cách tạo và định cấu hình tác vụ bằng công cụ tuỳ chỉnh tùy chọn:

const audio = await FilesetResolver.forAudioTasks(
    "https://my-cdn-service.com/npm/@mediapipe/tasks-audio/wasm"
  );

const audioClassifier = await AudioClassifier.createFromOptions(audio, {
    baseOptions: {
      modelAssetPath:
        "https://tfhub.dev/google/lite-model/yamnet/classification/tflite/1?lite-format=tflite"
    }
  });

Việc triển khai mã ví dụ cho Trình phân loại âm thanh cho phép người dùng chọn giữa chế độ xử lý. Phương pháp này làm cho mã tạo tác vụ trở nên phức tạp hơn và có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy các chế độ khác nhau trong runAudioClassification()runStreamingAudioClassification() của example code.

Các lựa chọn về cấu hình

Tác vụ này có các lựa chọn cấu hình sau cho Web và JavaScript ứng dụng:

Tên lựa chọn Mô tả Khoảng giá trị Giá trị mặc định
displayNamesLocale Đặt ngôn ngữ của nhãn để sử dụng cho tên hiển thị được cung cấp trong siêu dữ liệu về mô hình của công việc (nếu có). Mặc định là en cho Tiếng Anh. Bạn có thể thêm nhãn đã bản địa hoá vào siêu dữ liệu của mô hình tuỳ chỉnh bằng TensorFlow Lite Metadata Writer API Mã ngôn ngữ vi
maxResults Đặt số lượng kết quả phân loại có điểm số cao nhất (không bắt buộc) thành lợi nhuận. Nếu < 0, tất cả kết quả có sẵn sẽ được trả về. Bất kỳ số dương nào -1
scoreThreshold Đặt ngưỡng điểm số dự đoán ghi đè ngưỡng điểm được cung cấp trong siêu dữ liệu của mô hình (nếu có). Những kết quả thấp hơn giá trị này sẽ bị từ chối. [0,0, 1] Chưa đặt
categoryAllowlist Đặt danh sách các tên danh mục được phép (không bắt buộc). Nếu ô trống, kết quả phân loại có tên danh mục không nằm trong tập hợp này sẽ là đã lọc ra. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua. Lựa chọn này loại trừ lẫn nhau với categoryDenylist và sử dụng cả hai đều dẫn đến lỗi. Chuỗi bất kỳ Chưa đặt
categoryDenylist Đặt danh sách tên danh mục không được phép (không bắt buộc). Nếu kết quả phân loại không trống, có tên danh mục nằm trong tập hợp này sẽ được lọc bị loại. Tên danh mục trùng lặp hoặc không xác định sẽ bị bỏ qua. Lựa chọn này mang tính tương đồng chỉ có với categoryAllowlist và sử dụng cả hai đều dẫn đến lỗi. Chuỗi bất kỳ Chưa đặt

Chuẩn bị dữ liệu

Công cụ phân loại âm thanh hoạt động với đoạn âm thanh và luồng âm thanh, đồng thời có thể tương thích với âm thanh ở bất kỳ định dạng nào mà trình duyệt chính hỗ trợ. Tác vụ sẽ xử lý dữ liệu tiền xử lý đầu vào, bao gồm lấy mẫu lại, lưu vào bộ đệm và lấy khung hình.

Chạy tác vụ

Trình phân loại âm thanh sử dụng phương thức classify() để chạy thông tin suy luận cho đoạn âm thanh hoặc luồng âm thanh. Audio Classifier API trả về dữ liệu có thể cho các danh mục sự kiện âm thanh được nhận dạng trong âm thanh đầu vào.

Các lệnh gọi đến phương thức classify() của Trình phân loại âm thanh chạy đồng bộ và chặn luồng giao diện người dùng. Nếu bạn phân loại âm thanh từ micrô của một thiết bị, mỗi mức phân loại sẽ chặn luồng chính. Bạn có thể ngăn chặn điều này bằng cách triển khai trình thực thi web để chạy classify() trên một luồng khác.

Mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ:

Đoạn âm thanh

// Create audio buffer
const sample = await response.arrayBuffer();
const audioBuffer = await audioCtx.decodeAudioData(sample);

// Use AudioClassifier to run classification
const results = audioClassifier.classify(
  audioBuffer.getChannelData(0),
  audioBuffer.sampleRate
);
  

Luồng âm thanh

stream = await navigator.mediaDevices.getUserMedia(constraints);
audioCtx = new AudioContext({ sampleRate: 16000 });

const source = audioCtx.createMediaStreamSource(stream);
const scriptNode = audioCtx.createScriptProcessor(16384, 1, 1);

scriptNode.onaudioprocess = function (audioProcessingEvent) {
  const inputBuffer = audioProcessingEvent.inputBuffer;
  let inputData = inputBuffer.getChannelData(0);

  // Classify the audio
  const result = audioClassifier.classify(inputData);
  const categories = result[0].classifications[0].categories;
};
  

Để triển khai hoàn chỉnh hơn khi chạy tác vụ Trình phân loại âm thanh, hãy xem mã ví dụ.

Xử lý và hiện kết quả

Sau khi bạn hoàn tất lần chạy dự đoán, tác vụ Trình phân loại âm thanh sẽ trả về một giá trị Đối tượng AudioClassifierResult chứa danh sách các danh mục có thể có cho các đối tượng trong âm thanh đầu vào.

AudioClassifierResult:
  Timestamp in microseconds: 100
  ClassificationResult #0:
    Timestamp in microseconds: 100  
    Classifications #0 (single classification head):
      head index: 0
      category #0:
        category name: "Speech"
        score: 0.6
        index: 0
      category #1:
        category name: "Music"
        score: 0.2
        index: 1

Mã ví dụ của Trình phân loại âm thanh minh hoạ cách hiển thị phân loại kết quả được trả về từ tác vụ, hãy xem mã ví dụ để biết thông tin chi tiết.