오디오 분류 가이드

새의 울음소리의 파형이 울음소리와 일치하는 새의 사진 위에 겹쳐져 있습니다.

MediaPipe 오디오 분류기 태스크를 사용하면 오디오 클립을 기타 음악, 기차 호루라기, 새의 노래와 같이 정의된 카테고리 집합으로 분류할 수 있습니다. 카테고리는 모델 학습 중에 정의됩니다. 이 태스크는 머신러닝 (ML) 모델을 독립적인 오디오 클립 또는 연속 스트림으로 사용하는 오디오 데이터를 처리하고, 확률 점수 하위로 순위가 매겨진 잠재적 카테고리 목록을 출력합니다.

사용해 보기

시작하기

대상 플랫폼에 관한 다음 구현 가이드 중 하나에 따라 이 작업을 시작합니다. 다음 플랫폼별 가이드에서는 권장 모델, 권장 구성 옵션이 포함된 코드 예시 등 이 작업의 기본 구현을 안내합니다.

이 플랫폼별 가이드에서는 권장 모델, 권장 구성 옵션이 포함된 코드 예시 등 이 작업의 기본 구현을 안내합니다.

태스크 세부정보

이 섹션에서는 이 태스크의 기능, 입력, 출력, 구성 옵션을 설명합니다.

기능

  • 입력 오디오 처리 - 처리에는 오디오 리샘플링, 버퍼링, 프레이밍, 푸리에 변환이 포함됩니다.
  • 라벨 지도 언어 - 표시 이름에 사용되는 언어를 설정합니다.
  • 점수 기준점: 예측 점수를 기준으로 결과를 필터링합니다.
  • 상위 k개 감지: 숫자 감지 결과를 필터링합니다.
  • 라벨 허용 목록 및 거부 목록 - 감지된 카테고리를 지정합니다.
태스크 입력 태스크 출력
입력은 다음 데이터 유형 중 하나일 수 있습니다.
  • 오디오 클립
  • 오디오 스트림
오디오 분류기는 다음을 포함하는 카테고리 목록을 출력합니다.
  • 카테고리 색인: 모델 출력의 카테고리 색인입니다.
  • 점수: 이 카테고리의 신뢰도 점수로, 일반적으로 [0,1] 범위의 확률입니다.
  • 카테고리 이름(선택사항): TFLite 모델 메타데이터에 지정된 카테고리 이름(있는 경우)
  • 카테고리 표시 이름(선택사항): TFLite 모델 메타데이터에 지정된 카테고리의 표시 이름으로, 표시 이름 언어 옵션을 통해 지정된 언어(있는 경우)로 표시됩니다.

구성 옵션

이 태스크에는 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
running_mode 태스크의 실행 모드를 설정합니다. 오디오 분류기에는 두 가지 모드가 있습니다.

AUDIO_CLIPS: 독립된 오디오 클립에서 오디오 작업을 실행하는 모드입니다.

AUDIO_STREAM: 마이크와 같은 오디오 스트림에서 오디오 작업을 실행하는 모드입니다. 이 모드에서는 분류 결과를 비동기식으로 수신하는 리스너를 설정하기 위해 resultListener를 호출해야 합니다.
{AUDIO_CLIPS, AUDIO_STREAM} AUDIO_CLIPS
display_names_locale 가능한 경우 태스크 모델의 메타데이터에 제공된 표시 이름에 사용할 라벨의 언어를 설정합니다. 기본값은 영어의 경우 en입니다. TensorFlow Lite Metadata Writer API를 사용하여 맞춤 모델의 메타데이터에 현지화된 라벨을 추가할 수 있습니다. 언어 코드 en
max_results 반환할 선택적 최대 점수의 분류 결과 수를 설정합니다. 0보다 작은 경우 사용 가능한 모든 결과가 반환됩니다. 모든 양수 -1
score_threshold 모델 메타데이터에 제공된 값 (있는 경우)을 재정의하는 예측 점수 기준점을 설정합니다. 이 값 미만의 결과는 거부됩니다. [0.0, 1.0] 설정되지 않음
category_allowlist 허용되는 카테고리 이름의 선택적 목록을 설정합니다. 이 집합에 없는 카테고리 이름의 분류 결과가 필터링됩니다. 중복 또는 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 category_denylist와 상호 배타적이며 둘 다 사용하면 오류가 발생합니다. 모든 문자열 설정되지 않음
category_denylist 허용되지 않는 카테고리 이름의 선택적 목록을 설정합니다. 비어 있지 않으면 이 세트에 카테고리 이름이 있는 분류 결과가 필터링됩니다. 중복 또는 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 category_allowlist와 상호 배타적이며 둘 다 사용하면 오류가 발생합니다. 모든 문자열 설정되지 않음
result_callback 오디오 분류기가 오디오 스트림 모드일 때 분류 결과를 비동기식으로 수신하도록 결과 리스너를 설정합니다. 실행 모드가 AUDIO_STREAM로 설정된 경우에만 사용할 수 있습니다. 해당 사항 없음 설정되지 않음

모델

오디오 분류기를 사용하려면 오디오 분류 모델을 다운로드하여 프로젝트 디렉터리에 저장해야 합니다. 이 작업으로 개발을 시작할 때는 타겟 플랫폼에 권장되는 기본 모델부터 시작하세요. 사용 가능한 다른 모델은 일반적으로 성능, 정확성, 해상도, 리소스 요구사항 간에 절충점을 찾으며 경우에 따라 추가 기능을 포함합니다.

Yamnet 모델은 AudioSet 데이터 세트에서 학습되어 AudioSet 데이터에 정의된 오디오 이벤트를 예측하는 오디오 이벤트 분류기입니다. 이 모델에서 인식하는 오디오 이벤트에 관한 자세한 내용은 모델 라벨 목록을 참고하세요.

모델 이름 입력 셰이프 양자화 유형 버전
YamNet 1 x 15600 None (float32) 최신

작업 벤치마크

다음은 위의 사전 학습된 모델을 기반으로 한 전체 파이프라인의 태스크 벤치마크입니다. 지연 시간 결과는 CPU / GPU를 사용하는 Pixel 6의 평균 지연 시간입니다.

모델 이름 CPU 지연 시간 GPU 지연 시간
YamNet 12.29ms -