오디오 분류 가이드

MediaPipe Audio Classifier 작업을 사용하면 오디오 클립을 기타 음악, 기차 휘슬, 새의 노래와 같은 정의된 카테고리 집합으로 분류할 수 있습니다. 카테고리는 모델 학습 중에 정의됩니다. 이 작업은 독립적인 오디오 클립 또는 연속 스트림으로 머신러닝 (ML) 모델을 사용하는 오디오 데이터를 대상으로 작동하며, 확률 점수 내림차순에 따라 순위가 매겨진 잠재적 카테고리 목록을 출력합니다.

사용해 보기

시작하기

이 작업의 사용을 시작하려면 대상 플랫폼별 구현 가이드 중 하나를 따르세요. 다음의 플랫폼별 가이드에서는 권장 모델, 권장 구성 옵션이 있는 코드 예를 포함하여 이 작업의 기본 구현을 설명합니다.

이러한 플랫폼별 가이드에서는 권장 모델 및 권장 구성 옵션이 있는 코드 예를 포함하여 이 작업의 기본 구현을 설명합니다.

태스크 세부정보

이 섹션에서는 이 태스크의 기능, 입력, 출력 및 구성 옵션을 설명합니다.

기능

  • 입력 오디오 처리 - 처리에는 오디오 리샘플링, 버퍼링, 프레이밍, 푸리에 변환이 포함됩니다.
  • 라벨 지도 언어 - 표시 이름에 사용되는 언어를 설정합니다.
  • 점수 임곗값 - 예측 점수를 기준으로 결과를 필터링합니다.
  • Top-k 감지 - 숫자 감지 결과를 필터링합니다.
  • 라벨 허용 목록 및 차단 목록 - 감지된 카테고리를 지정합니다.
작업 입력 작업 출력
입력은 다음 데이터 유형 중 하나일 수 있습니다.
  • 오디오 클립
  • 오디오 스트림
Audio Classifier는 다음을 포함하는 카테고리 목록을 출력합니다.
  • 카테고리 색인: 모델 출력의 카테고리 색인
  • 점수: 이 카테고리의 신뢰도 점수로, 일반적으로 [0,1]의 확률로 표시됩니다.
  • 카테고리 이름(선택사항): TFLite 모델 메타데이터에 지정된 카테고리 이름(사용 가능한 경우)
  • 카테고리 표시 이름 (선택사항): TFLite 모델 메타데이터에 지정된 카테고리의 표시 이름으로, 사용 가능한 경우 표시 이름 언어 옵션을 통해 지정된 언어로 표기합니다.

구성 옵션

이 태스크에는 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
running_mode 작업의 실행 모드를 설정합니다. Audio Classifier에는 두 가지 모드가 있습니다.

AUDIO_CLIPS: 독립 오디오 클립에서 오디오 작업을 실행하는 모드입니다.

AUDIO_STREAM: 마이크와 같은 오디오 스트림에서 오디오 작업을 실행하는 모드입니다. 이 모드에서는 분류 결과를 비동기식으로 수신하는 리스너를 설정하려면 resultListener를 호출해야 합니다.
{AUDIO_CLIPS, AUDIO_STREAM} AUDIO_CLIPS
display_names_locale 가능한 경우 태스크 모델의 메타데이터에 제공되는 표시 이름에 사용할 라벨 언어를 설정합니다. 기본값은 영어의 경우 en입니다. TensorFlow Lite Metadata Writer API를 사용하여 커스텀 모델의 메타데이터에 현지화된 라벨을 추가할 수 있습니다. 언어 코드 한국어
max_results 반환할 최고 점수를 받은 분류 결과의 최대 개수를 선택합니다(선택사항). 0보다 작은 경우 사용 가능한 모든 결과가 반환됩니다. 모든 양수 -1
score_threshold 모델 메타데이터에서 제공된 값 (있는 경우)을 재정의하는 예측 점수 임곗값을 설정합니다. 이 값보다 낮은 결과는 거부됩니다. [0.0, 1.0] 설정되지 않음
category_allowlist 허용된 카테고리 이름의 선택적 목록을 설정합니다. 비어 있지 않으면 카테고리 이름이 이 세트에 없는 분류 결과는 필터링됩니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 category_denylist와 상호 배타적이며 둘 다 사용하면 오류가 발생합니다. 모든 문자열 설정되지 않음
category_denylist 허용되지 않는 카테고리 이름의 선택적 목록을 설정합니다. 비어 있지 않으면 카테고리 이름이 이 세트에 있는 분류 결과가 필터링됩니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 category_allowlist와 함께 사용할 수 없으며 두 옵션을 모두 사용하면 오류가 발생합니다. 모든 문자열 설정되지 않음
result_callback Audio Classifier가 오디오 스트림 모드일 때 비동기식으로 분류 결과를 수신하도록 결과 리스너를 설정합니다. 달리기 모드가 AUDIO_STREAM으로 설정된 경우에만 사용할 수 있습니다. 해당 사항 없음 설정되지 않음

모델

Audio Classifier를 사용하려면 오디오 분류 모델을 다운로드하여 프로젝트 디렉터리에 저장해야 합니다. 이 작업으로 개발을 시작할 때는 대상 플랫폼에 권장되는 기본 모델로 시작하세요. 사용 가능한 다른 모델은 일반적으로 성능, 정확성, 해상도, 리소스 요구사항을 절충하며, 경우에 따라 추가 기능을 포함합니다.

Yamnet 모델은 AudioSet 데이터 세트에서 학습된 오디오 이벤트 분류자로서 AudioSet 데이터에 정의된 오디오 이벤트를 예측합니다. 이 모델이 인식하는 오디오 이벤트에 대한 자세한 내용은 모델 라벨 목록을 참조하세요.

모델 이름 입력 형태 양자화 유형 버전
YamNet 1 x 15600 없음 (float32) 최신

작업 벤치마크

다음은 위의 선행 학습된 모델을 기반으로 전체 파이프라인에 대한 작업 벤치마크입니다. 지연 시간 결과는 CPU / GPU를 사용하는 Pixel 6의 평균 지연 시간입니다.

모델 이름 CPU 지연 시간 GPU 지연 시간
YamNet 12.29밀리초 -