Tugas Pengklasifikasi Audio MediaPipe memungkinkan Anda melakukan klasifikasi pada data audio. Anda dapat gunakan tugas ini untuk mengidentifikasi peristiwa deteksi suara dari serangkaian kategori terlatih. Ini menunjukkan cara menggunakan Pengklasifikasi Audio dengan Python.
Untuk mengetahui informasi selengkapnya terkait kemampuan, model, dan opsi konfigurasi. tugas ini, lihat Ringkasan.
Contoh kode
Kode contoh untuk Pengklasifikasi Audio menyediakan implementasi lengkap dari di Python untuk referensi Anda. Kode ini membantu Anda menguji tugas ini dan mendapatkan mulai membuat pengklasifikasi audio Anda sendiri. Anda dapat melihat, menjalankan, dan mengedit Contoh Pengklasifikasi Audio kode hanya dengan menggunakan browser web dengan Google Colab. Anda dapat melihat kode sumber untuk contoh ini di GitHub.
Jika Anda mengimplementasikan Pengklasifikasi Audio untuk Raspberry Pi, lihat contoh Raspberry Pi aplikasi.
Penyiapan
Bagian ini menjelaskan langkah-langkah utama untuk menyiapkan lingkungan pengembangan dan membuat kode project secara khusus untuk menggunakan Pengklasifikasi Audio. Untuk informasi umum tentang menyiapkan lingkungan pengembangan untuk menggunakan tugas MediaPipe, termasuk persyaratan versi platform, lihat Panduan penyiapan untuk Python yang baru.
Paket
Pengklasifikasi Audio menjalankan paket pip mediapipe. Anda dapat menginstal dependensi dengan kode berikut:
$ python -m pip install mediapipe
Impor
Impor class berikut untuk mengakses fungsi tugas Pengklasifikasi Audio:
import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import audio
Model
Tugas Pengklasifikasi Audio MediaPipe memerlukan model terlatih yang kompatibel dengan tugas Anda. Untuk informasi selengkapnya tentang model terlatih yang tersedia untuk Pengklasifikasi Audio, lihat ringkasan tugas bagian Model.
Pilih dan download model, lalu simpan di direktori lokal. Anda dapat menggunakan yang direkomendasikan Yamnet model transformer.
model_path = '/absolute/path/to/lite-model_yamnet_classification_tflite_1.tflite'
Tentukan jalur model dalam parameter Nama Model, seperti yang ditunjukkan di bawah ini:
base_options = BaseOptions(model_asset_path=model_path)
Membuat tugas
Gunakan fungsi create_from_options
untuk membuat tugas. Tujuan
Fungsi create_from_options
menerima opsi konfigurasi termasuk menjalankan
mode, nama tampilan lokal, jumlah hasil maksimal, ambang batas keyakinan,
daftar kategori yang diizinkan, dan daftar tolak. Untuk informasi selengkapnya tentang konfigurasi
opsi, lihat Ringkasan Konfigurasi.
Tugas Pengklasifikasi Audio mendukung klip audio dan streaming audio sebagai input. Anda harus menetapkan mode berjalan yang sesuai dengan jenis data input Anda saat membuat tugas. Pilih tab yang sesuai dengan jenis data input Anda untuk melihat cara membuat tugas dan menjalankan inferensi.
Klip audio
AudioClassifier = mp.tasks.audio.AudioClassifier AudioClassifierOptions = mp.tasks.audio.AudioClassifierOptions AudioRunningMode = mp.tasks.audio.RunningMode BaseOptions = mp.tasks.BaseOptions options = AudioClassifierOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), max_results=5, running_mode=AudioRunningMode.AUDIO_CLIPS) with AudioClassifier.create_from_options(options) as classifier: # The classifier is initialized. Use it here. # ...
Streaming audio
AudioClassifier = mp.tasks.audio.AudioClassifier AudioClassifierOptions = mp.tasks.audio.AudioClassifierOptions AudioClassifierResult = mp.tasks.audio.AudioClassifierResult AudioRunningMode = mp.tasks.audio.RunningMode BaseOptions = mp.tasks.BaseOptions def print_result(result: AudioClassifierResult, timestamp_ms: int): print(AudioClassifierResult result: {}’.format(result)) options = AudioClassifierOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), running_mode=AudioRunningMode.AUDIO_STREAM, max_results=5, result_callback=print_result) with AudioClassifier.create_from_options(options) as classifier: # The classifier is initialized. Use it here. # ...
Untuk contoh lengkap pembuatan Pengklasifikasi Audio untuk digunakan dengan audio, lihat kode contoh.
Opsi konfigurasi
Tugas ini memiliki opsi konfigurasi berikut untuk aplikasi Python:
Nama Opsi | Deskripsi | Rentang Nilai | Nilai Default |
---|---|---|---|
running_mode |
Menetapkan mode berjalan untuk tugas. Pengklasifikasi Audio memiliki dua mode: AUDIO_CLIPS: Mode untuk menjalankan tugas audio pada klip audio independen. AUDIO_STREAM: Mode untuk menjalankan tugas audio pada streaming audio, seperti dari mikrofon. Dalam mode ini, resultListener harus dipanggil untuk menyiapkan pemroses yang akan menerima hasil klasifikasi secara asinkron. |
{AUDIO_CLIPS, AUDIO_STREAM } |
AUDIO_CLIPS |
display_names_locale |
Menyetel bahasa label yang akan digunakan untuk nama tampilan yang diberikan di
metadata model tugas, jika tersedia. Defaultnya adalah en untuk
Bahasa Inggris. Anda dapat menambahkan label yang dilokalkan ke metadata model kustom
menggunakan TensorFlow Lite Metadata Writer API
| Kode lokal | id |
max_results |
Menetapkan jumlah maksimum opsional untuk hasil klasifikasi dengan skor tertinggi ke kembali. Jika < 0, semua hasil yang tersedia akan ditampilkan. | Semua angka positif | -1 |
score_threshold |
Menetapkan ambang batas skor prediksi yang menggantikan skor yang diberikan dalam metadata model (jika ada). Hasil di bawah nilai ini ditolak. | [0,0, 1,0] | Tidak ditetapkan |
category_allowlist |
Menetapkan daftar opsional untuk nama kategori yang diizinkan. Jika tidak kosong,
hasil klasifikasi yang nama kategorinya tidak ada dalam kumpulan ini akan
disaring. Nama kategori duplikat atau yang tidak diketahui akan diabaikan.
Opsi ini sama-sama bersifat eksklusif dengan category_denylist dan menggunakan
keduanya akan menghasilkan {i>error<i}. |
String apa pun | Tidak ditetapkan |
category_denylist |
Menetapkan daftar opsional nama kategori yang tidak diizinkan. Jika
hasil klasifikasi yang tidak kosong, yang nama kategorinya dalam rangkaian ini akan difilter
posisi-posisi ini. Nama kategori duplikat atau yang tidak diketahui akan diabaikan. Opsi ini sama-sama
eksklusif dengan category_allowlist dan menggunakan keduanya akan menyebabkan error. |
String apa pun | Tidak ditetapkan |
result_callback |
Menetapkan pemroses hasil untuk menerima hasil klasifikasi
secara asinkron saat Pengklasifikasi Audio berada dalam streaming audio
mode. Hanya dapat digunakan saat mode lari disetel ke AUDIO_STREAM |
T/A | Tidak ditetapkan |
Menyiapkan data
Pengklasifikasi Audio dapat digunakan dengan klip audio dan streaming audio. Tugas tersebut menangani pra-pemrosesan input data, termasuk pengambilan ulang sampel, buffering, dan framing.
Siapkan input Anda sebagai file audio atau array numpy, lalu konversi menjadi
Objek AudioData
MediaPipe. Anda dapat menggunakan {i>library
<i}eksternal seperti
SciPy untuk memuat audio input sebagai array numpy.
Contoh berikut menjelaskan dan menunjukkan cara menyiapkan data untuk diproses setiap jenis data yang tersedia:
Klip audio
import numpy as np from scipy.io import wavfile AudioData = mp.tasks.components.containers.AudioData sample_rate, buffer = wavfile.read('/path/to/audio.wav') audio_data = AudioData.create_from_array( buffer.astype(float) / np.iinfo(np.int16).max, sample_rate)
Streaming audio
import numpy as np AudioData = mp.tasks.components.containers.AudioData # Read microphone data as np arrays, then call audio_data = AudioData.create_from_array( buffer.astype(float) / np.iinfo(np.int16).max, sample_rate)
Menjalankan tugas
Anda memanggil fungsi klasifikasi yang sesuai dengan mode berlari untuk memicu inferensi. Audio Classifier API menampilkan kategori yang memungkinkan untuk audio dalam buffer audio input.
Klip audio
# Perform audio classification on the provided audio clip. audio_classifier_result_list = classifier.classify(audio_data)
Streaming audio
# Send live audio data to perform audio classification. # Results are sent to the `result_callback` provided in the `AudioClassifierOptions` classifier.classify_async(audio_data, timestamp_ms)
Perhatikan hal berikut:
- Saat menjalankan dalam mode streaming audio, Anda juga harus menyediakan Tugas Pengklasifikasi Audio, stempel waktu data audio input.
- Saat dijalankan di model klip audio, tugas Pengklasifikasi Audio akan memblokir thread saat ini hingga selesai memproses audio input.
Untuk contoh yang lebih lengkap terkait menjalankan Pengklasifikasi Audio dengan klip audio, lihat kode contoh.
Menangani dan menampilkan hasil
Setelah menjalankan inferensi, tugas Pengklasifikasi Audio mengembalikan
Objek AudioClassifierResult
yang berisi daftar kemungkinan kategori
untuk peristiwa audio dalam audio input.
Berikut ini contoh data output dari tugas ini:
AudioClassifierResult:
Timestamp in microseconds: 100
ClassificationResult #0:
Timestamp in microseconds: 100
Classifications #0 (single classification head):
head index: 0
category #0:
category name: "Speech"
score: 0.6
index: 0
category #1:
category name: "Music"
score: 0.2
index: 1
Kode contoh Pengklasifikasi Audio menunjukkan cara menampilkan klasifikasi hasil yang ditampilkan dari tugas ini, lihat kode contoh untuk mengetahui detailnya.