MediaPipe Audio Classifier 작업을 사용하면 오디오 클립을 기타 음악, 기차 휘슬, 새의 노래와 같은 정의된 카테고리 집합으로 분류할 수 있습니다. 카테고리는 모델 학습 중에 정의됩니다. 이 작업은 독립적인 오디오 클립 또는 연속 스트림으로 머신러닝 (ML) 모델을 사용하는 오디오 데이터를 대상으로 작동하며, 확률 점수 내림차순에 따라 순위가 매겨진 잠재적 카테고리 목록을 출력합니다.
시작하기
이 작업의 사용을 시작하려면 대상 플랫폼별 구현 가이드 중 하나를 따르세요. 다음의 플랫폼별 가이드에서는 권장 모델, 권장 구성 옵션이 있는 코드 예를 포함하여 이 작업의 기본 구현을 설명합니다.
이러한 플랫폼별 가이드에서는 권장 모델 및 권장 구성 옵션이 있는 코드 예를 포함하여 이 작업의 기본 구현을 설명합니다.
태스크 세부정보
이 섹션에서는 이 태스크의 기능, 입력, 출력 및 구성 옵션을 설명합니다.
기능
- 입력 오디오 처리 - 처리에는 오디오 리샘플링, 버퍼링, 프레이밍, 푸리에 변환이 포함됩니다.
- 라벨 지도 언어 - 표시 이름에 사용되는 언어를 설정합니다.
- 점수 임곗값 - 예측 점수를 기준으로 결과를 필터링합니다.
- Top-k 감지 - 숫자 감지 결과를 필터링합니다.
- 라벨 허용 목록 및 차단 목록 - 감지된 카테고리를 지정합니다.
작업 입력 | 작업 출력 |
---|---|
입력은 다음 데이터 유형 중 하나일 수 있습니다.
|
Audio Classifier는 다음을 포함하는 카테고리 목록을 출력합니다.
|
구성 옵션
이 태스크에는 다음과 같은 구성 옵션이 있습니다.
옵션 이름 | 설명 | 값 범위 | 기본값 |
---|---|---|---|
running_mode |
작업의 실행 모드를 설정합니다. Audio Classifier에는 두 가지 모드가 있습니다. AUDIO_CLIPS: 독립 오디오 클립에서 오디오 작업을 실행하는 모드입니다. AUDIO_STREAM: 마이크와 같은 오디오 스트림에서 오디오 작업을 실행하는 모드입니다. 이 모드에서는 분류 결과를 비동기식으로 수신하는 리스너를 설정하려면 resultListener를 호출해야 합니다. |
{AUDIO_CLIPS, AUDIO_STREAM } |
AUDIO_CLIPS |
display_names_locale |
가능한 경우 태스크 모델의 메타데이터에 제공되는 표시 이름에 사용할 라벨 언어를 설정합니다. 기본값은 영어의 경우 en 입니다. TensorFlow Lite Metadata Writer API를 사용하여 커스텀 모델의 메타데이터에 현지화된 라벨을 추가할 수 있습니다.
| 언어 코드 | 한국어 |
max_results |
반환할 최고 점수를 받은 분류 결과의 최대 개수를 선택합니다(선택사항). 0보다 작은 경우 사용 가능한 모든 결과가 반환됩니다. | 모든 양수 | -1 |
score_threshold |
모델 메타데이터에서 제공된 값 (있는 경우)을 재정의하는 예측 점수 임곗값을 설정합니다. 이 값보다 낮은 결과는 거부됩니다. | [0.0, 1.0] | 설정되지 않음 |
category_allowlist |
허용된 카테고리 이름의 선택적 목록을 설정합니다. 비어 있지 않으면 카테고리 이름이 이 세트에 없는 분류 결과는 필터링됩니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다.
이 옵션은 category_denylist 와 상호 배타적이며 둘 다 사용하면 오류가 발생합니다. |
모든 문자열 | 설정되지 않음 |
category_denylist |
허용되지 않는 카테고리 이름의 선택적 목록을 설정합니다. 비어 있지 않으면 카테고리 이름이 이 세트에 있는 분류 결과가 필터링됩니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 category_allowlist 와 함께 사용할 수 없으며 두 옵션을 모두 사용하면 오류가 발생합니다. |
모든 문자열 | 설정되지 않음 |
result_callback |
Audio Classifier가 오디오 스트림 모드일 때 비동기식으로 분류 결과를 수신하도록 결과 리스너를 설정합니다. 달리기 모드가 AUDIO_STREAM 으로 설정된 경우에만 사용할 수 있습니다. |
해당 사항 없음 | 설정되지 않음 |
모델
Audio Classifier를 사용하려면 오디오 분류 모델을 다운로드하여 프로젝트 디렉터리에 저장해야 합니다. 이 작업으로 개발을 시작할 때는 대상 플랫폼에 권장되는 기본 모델로 시작하세요. 사용 가능한 다른 모델은 일반적으로 성능, 정확성, 해상도, 리소스 요구사항을 절충하며, 경우에 따라 추가 기능을 포함합니다.
Yamnet 모델 (권장)
Yamnet 모델은 AudioSet 데이터 세트에서 학습된 오디오 이벤트 분류자로서 AudioSet 데이터에 정의된 오디오 이벤트를 예측합니다. 이 모델이 인식하는 오디오 이벤트에 대한 자세한 내용은 모델 라벨 목록을 참조하세요.
모델 이름 | 입력 형태 | 양자화 유형 | 버전 |
---|---|---|---|
YamNet | 1 x 15600 | 없음 (float32) | 최신 |
작업 벤치마크
다음은 위의 선행 학습된 모델을 기반으로 전체 파이프라인에 대한 작업 벤치마크입니다. 지연 시간 결과는 CPU / GPU를 사용하는 Pixel 6의 평균 지연 시간입니다.
모델 이름 | CPU 지연 시간 | GPU 지연 시간 |
---|---|---|
YamNet | 12.29밀리초 | - |