Panduan klasifikasi audio untuk web

Tugas MediaPipe Audio Classifier memungkinkan Anda melakukan klasifikasi pada data audio. Anda dapat menggunakan tugas ini untuk mengidentifikasi peristiwa suara dari serangkaian kategori terlatih. Petunjuk ini menunjukkan cara menggunakan Pengklasifikasi Audio untuk aplikasi Node dan web.

Anda dapat melihat cara kerja tugas ini dengan melihat demo. Untuk mengetahui informasi selengkapnya tentang kemampuan, model, dan opsi konfigurasi tugas ini, lihat Ringkasan.

Contoh kode

Contoh kode untuk Pengklasifikasi Audio memberikan implementasi lengkap tugas ini di JavaScript untuk referensi Anda. Kode ini membantu Anda menguji tugas ini dan mulai membuat aplikasi klasifikasi audio Anda sendiri. Anda dapat melihat, menjalankan, dan mengedit contoh Pengklasifikasi Audio hanya menggunakan browser web Anda.

Penyiapan

Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan project kode secara khusus untuk menggunakan Pengklasifikasi Audio. Untuk mengetahui informasi umum tentang cara menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk web.

Paket JavaScript

Kode Pengklasifikasi Audio tersedia melalui paket @mediapipe/tasks-audio NPM MediaPipe. Anda dapat menemukan dan mendownload library ini dari link yang disediakan di Panduan penyiapan platform.

Anda dapat menginstal paket yang diperlukan dengan kode berikut untuk penyiapan lokal menggunakan perintah berikut:

npm install @mediapipe/tasks-audio

Jika Anda ingin mengimpor kode tugas melalui layanan jaringan penayangan konten (CDN), tambahkan kode berikut di tag <script> dalam file HTML Anda:

<!-- Replace "my-cdn-service.com" with your CDN -->
<head>
  <script src="https://my-cdn-service.com/npm/@mediapipe/tasks-audio/audio_bundle.js"
    crossorigin="anonymous"></script>
</head>

Model

Tugas MediaPipe Audio Classifier memerlukan model terlatih yang kompatibel dengan tugas ini. Untuk mengetahui informasi selengkapnya tentang model terlatih yang tersedia untuk Pengklasifikasi Audio, lihat bagian Model di ringkasan tugas.

Pilih dan download model, lalu simpan dalam direktori project Anda, misalnya:

<dev-project-root>/app/shared/models/

Buat tugas

Gunakan salah satu fungsi Pengklasifikasi Audio createFrom...() untuk menyiapkan tugas untuk menjalankan inferensi. Gunakan fungsi createFromModelPath() dengan jalur relatif atau absolut ke file model terlatih. Jika model Anda sudah dimuat ke dalam memori, Anda dapat menggunakan metode createFromModelBuffer().

Contoh kode di bawah menunjukkan penggunaan fungsi createFromOptions() untuk menyiapkan tugas. Fungsi createFromOptions memungkinkan Anda menyesuaikan Pengklasifikasi Audio dengan opsi konfigurasi. Untuk mengetahui informasi selengkapnya tentang opsi konfigurasi, lihat Opsi konfigurasi.

Kode berikut menunjukkan cara membuat dan mengonfigurasi tugas dengan opsi kustom:

const audio = await FilesetResolver.forAudioTasks(
    "https://my-cdn-service.com/npm/@mediapipe/tasks-audio/wasm"
  );

const audioClassifier = await AudioClassifier.createFromOptions(audio, {
    baseOptions: {
      modelAssetPath:
        "https://tfhub.dev/google/lite-model/yamnet/classification/tflite/1?lite-format=tflite"
    }
  });

Anda dapat melihat contoh lengkap di example code.

Opsi konfigurasi

Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Web dan JavaScript:

Nama Opsi Deskripsi Rentang Nilai Nilai Default
displayNamesLocale Menetapkan bahasa label yang akan digunakan untuk nama tampilan yang diberikan dalam metadata model tugas, jika tersedia. Default-nya adalah en untuk bahasa Inggris. Anda dapat menambahkan label yang dilokalkan ke metadata model kustom menggunakan TensorFlow Lite Metadata Writer API Kode lokal en
maxResults Menetapkan jumlah maksimum opsional hasil klasifikasi dengan skor tertinggi yang akan ditampilkan. Jika < 0, semua hasil yang tersedia akan ditampilkan. Semua bilangan positif -1
scoreThreshold Menetapkan nilai minimum skor prediksi yang menggantikan nilai minimum yang diberikan dalam metadata model (jika ada). Hasil di bawah nilai ini ditolak. [0.0, 1.0] Tidak ditetapkan
categoryAllowlist Menetapkan daftar opsional nama kategori yang diizinkan. Jika tidak kosong, hasil klasifikasi yang nama kategorinya tidak ada dalam set ini akan dikecualikan. Nama kategori duplikat atau tidak dikenal akan diabaikan. Opsi ini eksklusif dengan categoryDenylist dan penggunaan keduanya akan menghasilkan error. String apa pun Tidak ditetapkan
categoryDenylist Menetapkan daftar opsional nama kategori yang tidak diizinkan. Jika tidak kosong, hasil klasifikasi yang nama kategorinya ada dalam set ini akan difilter. Nama kategori duplikat atau tidak dikenal akan diabaikan. Opsi ini eksklusif dengan categoryAllowlist dan penggunaan keduanya akan menghasilkan error. String apa pun Tidak ditetapkan

Menyiapkan data

Pengklasifikasi Audio berfungsi dengan klip audio dan streaming audio, serta dapat berfungsi dengan file audio dalam format apa pun yang didukung oleh browser host. Tugas ini menangani pra-pemrosesan input data, termasuk pengambilan sampel ulang, buffering, dan pembingkaian.

Jalankan tugas

Pengklasifikasi Audio menggunakan metode classify() untuk menjalankan inferensi untuk file klip audio atau streaming audio. Audio Classifier API menampilkan kemungkinan kategori untuk peristiwa audio yang dikenali dalam audio input.

Panggilan ke metode classify() Pengklasifikasi Audio berjalan secara sinkron dan memblokir thread antarmuka pengguna. Jika Anda mengklasifikasikan audio dari mikrofon perangkat, setiap klasifikasi akan memblokir thread utama. Anda dapat mencegah hal ini dengan menerapkan pekerja web untuk menjalankan classify() di thread lain.

Kode berikut menunjukkan cara menjalankan pemrosesan dengan model tugas:

Klip audio

// Create audio buffer
const sample = await response.arrayBuffer();
const audioBuffer = await audioCtx.decodeAudioData(sample);

// Use AudioClassifier to run classification
const results = audioClassifier.classify(
  audioBuffer.getChannelData(0),
  audioBuffer.sampleRate
);
  

Streaming audio

stream = await navigator.mediaDevices.getUserMedia(constraints);
audioCtx = new AudioContext({ sampleRate: 16000 });

const source = audioCtx.createMediaStreamSource(stream);
const scriptNode = audioCtx.createScriptProcessor(16384, 1, 1);

scriptNode.onaudioprocess = function (audioProcessingEvent) {
  const inputBuffer = audioProcessingEvent.inputBuffer;
  let inputData = inputBuffer.getChannelData(0);

  // Classify the audio
  const result = audioClassifier.classify(inputData);
  const categories = result[0].classifications[0].categories;
};
  

Untuk penerapan yang lebih lengkap dalam menjalankan tugas Pengklasifikasi Audio, lihat contoh.

Menangani dan menampilkan hasil

Setelah Anda menyelesaikan proses inferensi, tugas Pengklasifikasi Audio akan menampilkan objek AudioClassifierResult yang berisi daftar kemungkinan kategori untuk objek dalam audio input.

AudioClassifierResult:
  Timestamp in microseconds: 100
  ClassificationResult #0:
    Timestamp in microseconds: 100  
    Classifications #0 (single classification head):
      head index: 0
      category #0:
        category name: "Speech"
        score: 0.6
        index: 0
      category #1:
        category name: "Music"
        score: 0.2
        index: 1

Contoh kode Pengklasifikasi Audio menunjukkan cara menampilkan hasil klasifikasi yang ditampilkan dari tugas, lihat contoh untuk mengetahui detailnya.