Tugas MediaPipe Audio Classifier memungkinkan Anda melakukan klasifikasi pada data audio. Anda dapat menggunakan tugas ini untuk mengidentifikasi peristiwa suara dari serangkaian kategori terlatih. Petunjuk ini menunjukkan cara menggunakan Pengklasifikasi Audio untuk aplikasi Node dan web.
Anda dapat melihat cara kerja tugas ini dengan melihat demo. Untuk mengetahui informasi selengkapnya tentang kemampuan, model, dan opsi konfigurasi tugas ini, lihat Ringkasan.
Contoh kode
Contoh kode untuk Pengklasifikasi Audio memberikan implementasi lengkap tugas ini di JavaScript untuk referensi Anda. Kode ini membantu Anda menguji tugas ini dan mulai membuat aplikasi klasifikasi audio Anda sendiri. Anda dapat melihat, menjalankan, dan mengedit contoh Pengklasifikasi Audio hanya menggunakan browser web Anda.
Penyiapan
Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan project kode secara khusus untuk menggunakan Pengklasifikasi Audio. Untuk mengetahui informasi umum tentang cara menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk web.
Paket JavaScript
Kode Pengklasifikasi Audio tersedia melalui paket @mediapipe/tasks-audio
NPM MediaPipe. Anda dapat
menemukan dan mendownload library ini dari link yang disediakan di
Panduan penyiapan platform.
Anda dapat menginstal paket yang diperlukan dengan kode berikut untuk penyiapan lokal menggunakan perintah berikut:
npm install @mediapipe/tasks-audio
Jika Anda ingin mengimpor kode tugas melalui layanan jaringan penayangan konten (CDN), tambahkan kode berikut di tag <script> dalam file HTML Anda:
<!-- Replace "my-cdn-service.com" with your CDN -->
<head>
<script src="https://my-cdn-service.com/npm/@mediapipe/tasks-audio/audio_bundle.js"
crossorigin="anonymous"></script>
</head>
Model
Tugas MediaPipe Audio Classifier memerlukan model terlatih yang kompatibel dengan tugas ini. Untuk mengetahui informasi selengkapnya tentang model terlatih yang tersedia untuk Pengklasifikasi Audio, lihat bagian Model di ringkasan tugas.
Pilih dan download model, lalu simpan dalam direktori project Anda, misalnya:
<dev-project-root>/app/shared/models/
Buat tugas
Gunakan salah satu fungsi Pengklasifikasi Audio createFrom...() untuk
menyiapkan tugas untuk menjalankan inferensi. Gunakan fungsi createFromModelPath() dengan jalur relatif atau absolut ke file model terlatih.
Jika model Anda sudah dimuat ke dalam memori, Anda dapat menggunakan
metode createFromModelBuffer().
Contoh kode di bawah menunjukkan penggunaan fungsi createFromOptions() untuk
menyiapkan tugas. Fungsi createFromOptions memungkinkan Anda menyesuaikan
Pengklasifikasi Audio dengan opsi konfigurasi. Untuk mengetahui informasi selengkapnya tentang opsi konfigurasi, lihat Opsi konfigurasi.
Kode berikut menunjukkan cara membuat dan mengonfigurasi tugas dengan opsi kustom:
const audio = await FilesetResolver.forAudioTasks(
"https://my-cdn-service.com/npm/@mediapipe/tasks-audio/wasm"
);
const audioClassifier = await AudioClassifier.createFromOptions(audio, {
baseOptions: {
modelAssetPath:
"https://tfhub.dev/google/lite-model/yamnet/classification/tflite/1?lite-format=tflite"
}
});
Anda dapat melihat contoh lengkap di
example code.
Opsi konfigurasi
Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Web dan JavaScript:
| Nama Opsi | Deskripsi | Rentang Nilai | Nilai Default |
|---|---|---|---|
displayNamesLocale |
Menetapkan bahasa label yang akan digunakan untuk nama tampilan yang diberikan dalam
metadata model tugas, jika tersedia. Default-nya adalah en untuk
bahasa Inggris. Anda dapat menambahkan label yang dilokalkan ke metadata model kustom
menggunakan TensorFlow Lite Metadata Writer API
| Kode lokal | en |
maxResults |
Menetapkan jumlah maksimum opsional hasil klasifikasi dengan skor tertinggi yang akan ditampilkan. Jika < 0, semua hasil yang tersedia akan ditampilkan. | Semua bilangan positif | -1 |
scoreThreshold |
Menetapkan nilai minimum skor prediksi yang menggantikan nilai minimum yang diberikan dalam metadata model (jika ada). Hasil di bawah nilai ini ditolak. | [0.0, 1.0] | Tidak ditetapkan |
categoryAllowlist |
Menetapkan daftar opsional nama kategori yang diizinkan. Jika tidak kosong,
hasil klasifikasi yang nama kategorinya tidak ada dalam set ini akan
dikecualikan. Nama kategori duplikat atau tidak dikenal akan diabaikan.
Opsi ini eksklusif dengan categoryDenylist dan penggunaan
keduanya akan menghasilkan error. |
String apa pun | Tidak ditetapkan |
categoryDenylist |
Menetapkan daftar opsional nama kategori yang tidak diizinkan. Jika tidak kosong, hasil klasifikasi yang nama kategorinya ada dalam set ini akan difilter. Nama kategori duplikat atau tidak dikenal akan diabaikan. Opsi ini eksklusif
dengan categoryAllowlist dan penggunaan keduanya akan menghasilkan error. |
String apa pun | Tidak ditetapkan |
Menyiapkan data
Pengklasifikasi Audio berfungsi dengan klip audio dan streaming audio, serta dapat berfungsi dengan file audio dalam format apa pun yang didukung oleh browser host. Tugas ini menangani pra-pemrosesan input data, termasuk pengambilan sampel ulang, buffering, dan pembingkaian.
Jalankan tugas
Pengklasifikasi Audio menggunakan metode classify() untuk menjalankan inferensi untuk file klip audio atau streaming audio. Audio Classifier API menampilkan kemungkinan kategori untuk peristiwa audio yang dikenali dalam audio input.
Panggilan ke metode classify() Pengklasifikasi Audio berjalan secara sinkron dan memblokir
thread antarmuka pengguna. Jika Anda mengklasifikasikan audio dari mikrofon perangkat,
setiap klasifikasi akan memblokir thread utama. Anda dapat mencegah hal ini dengan menerapkan pekerja web untuk menjalankan classify() di thread lain.
Kode berikut menunjukkan cara menjalankan pemrosesan dengan model tugas:
Klip audio
// Create audio buffer const sample = await response.arrayBuffer(); const audioBuffer = await audioCtx.decodeAudioData(sample); // Use AudioClassifier to run classification const results = audioClassifier.classify( audioBuffer.getChannelData(0), audioBuffer.sampleRate );
Streaming audio
stream = await navigator.mediaDevices.getUserMedia(constraints); audioCtx = new AudioContext({ sampleRate: 16000 }); const source = audioCtx.createMediaStreamSource(stream); const scriptNode = audioCtx.createScriptProcessor(16384, 1, 1); scriptNode.onaudioprocess = function (audioProcessingEvent) { const inputBuffer = audioProcessingEvent.inputBuffer; let inputData = inputBuffer.getChannelData(0); // Classify the audio const result = audioClassifier.classify(inputData); const categories = result[0].classifications[0].categories; };
Untuk penerapan yang lebih lengkap dalam menjalankan tugas Pengklasifikasi Audio, lihat contoh.
Menangani dan menampilkan hasil
Setelah Anda menyelesaikan proses inferensi, tugas Pengklasifikasi Audio akan menampilkan objek
AudioClassifierResult yang berisi daftar kemungkinan kategori
untuk objek dalam audio input.
AudioClassifierResult:
Timestamp in microseconds: 100
ClassificationResult #0:
Timestamp in microseconds: 100
Classifications #0 (single classification head):
head index: 0
category #0:
category name: "Speech"
score: 0.6
index: 0
category #1:
category name: "Music"
score: 0.2
index: 1
Contoh kode Pengklasifikasi Audio menunjukkan cara menampilkan hasil klasifikasi yang ditampilkan dari tugas, lihat contoh untuk mengetahui detailnya.