웹용 오디오 분류 가이드

MediaPipe Audio Classifier 작업을 사용하면 오디오 데이터를 분류할 수 있습니다. 다음과 같은 작업을 할 수 있습니다. 이 작업을 사용하여 일련의 학습된 카테고리에서 소리 이벤트를 식별합니다. 이러한 안내에는 Node 및 웹 앱용 오디오 분류기를 사용하는 방법이 나와 있습니다.

이 작업의 동작을 확인하려면 demo 기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예

오디오 분류기의 코드 예는 자바스크립트 작업을 참조하세요. 이 코드는 이 작업을 테스트하고 자체 오디오 분류 앱 빌드를 시작해 보세요. 데이터를 보고, 실행하고, 로 이동하여 오디오 분류 기준 예시 코드 할 수 있습니다.

설정

이 섹션에서는 개발 환경을 설정하는 주요 단계를 설명하고 사용할 수 있습니다. 일반적인 정보 다음과 같은 MediaPipe 작업을 사용하기 위한 개발 환경 설정 자세한 내용은 웹 설정 가이드

JavaScript 패키지

오디오 분류기 코드는 MediaPipe @mediapipe/tasks-audio를 통해 제공됩니다. NPM 패키지 다음과 같은 작업을 할 수 있습니다. 플랫폼에 제공된 링크에서 이러한 라이브러리를 찾아 다운로드 설정 가이드

<ph type="x-smartling-placeholder">

로컬 스테이징을 위해 다음 코드를 사용하여 필수 패키지를 설치할 수 있습니다. 사용하여 다음 명령어를 실행합니다.

npm install @mediapipe/tasks-audio

콘텐츠 전송 네트워크 (CDN)를 통해 작업 코드를 가져오려는 경우 서비스를 사용하려면 HTML 파일의 태그에 다음 코드를 추가합니다.

<!-- Replace "my-cdn-service.com" with your CDN -->
<head>
  <script src="https://my-cdn-service.com/npm/@mediapipe/tasks-audio/audio_bundle.js"
    crossorigin="anonymous"></script>
</head>

모델

MediaPipe Audio Classifier 작업에는 다음과 호환되는 학습된 모델이 필요합니다. 태스크에 맞추는 것입니다. 오디오 분류기에 사용할 수 있는 학습된 모델에 대한 자세한 내용은 다음을 참고하세요. 작업 개요의 모델 섹션을 확인합니다.

모델을 선택하고 다운로드한 후 프로젝트 디렉터리에 저장합니다. 예를 들면 다음과 같습니다.

<dev-project-root>/app/shared/models/

할 일 만들기

Audio Classifier createFrom...() 함수 중 하나를 사용하여 다음 작업을 할 수 있습니다. 추론 실행을 위한 작업을 준비합니다. createFromModelPath() 사용 학습된 모델 파일에 대한 상대 또는 절대 경로를 사용하여 함수를 생성합니다. 모델이 이미 메모리에 로드된 경우 createFromModelBuffer() 메서드를 사용하여 지도 가장자리에 패딩을 추가할 수 있습니다.

아래 코드 예에서는 createFromOptions() 함수를 사용하여 다음을 수행하는 방법을 보여줍니다. 작업을 설정하는 것입니다. createFromOptions 함수를 사용하면 구성 옵션이 있는 오디오 분류 기준입니다. 구성에 관한 자세한 내용은 옵션은 구성 옵션을 참고하세요.

다음 코드는 커스텀 옵션:

const audio = await FilesetResolver.forAudioTasks(
    "https://my-cdn-service.com/npm/@mediapipe/tasks-audio/wasm"
  );

const audioClassifier = await AudioClassifier.createFromOptions(audio, {
    baseOptions: {
      modelAssetPath:
        "https://tfhub.dev/google/lite-model/yamnet/classification/tflite/1?lite-format=tflite"
    }
  });

오디오 분류기 예시 코드 구현을 통해 사용자는 오디오 분류 기준 중에서 선택할 수 있습니다. 처리 모드입니다 이 접근 방식은 작업 생성 코드를 더 복잡하게 만들고 이 사용 사례에 적합하지 않을 수 있습니다. 여러 가지 모드가 runAudioClassification()runStreamingAudioClassification()에서 함수 example code

구성 옵션

이 작업에는 웹 및 JavaScript에 대한 다음과 같은 구성 옵션이 있습니다. 애플리케이션:

옵션 이름 설명 값 범위 기본값
displayNamesLocale 작업 모델의 메타데이터입니다(있는 경우). 기본값은 en입니다. 영어입니다. 커스텀 모델의 메타데이터에 현지화된 라벨을 추가할 수 있습니다. TensorFlow Lite Metadata Writer API 사용 언어 코드 en
maxResults 최고 점수를 매긴 분류 결과의 최대 개수(선택사항)를 반환합니다. < 0이면 사용 가능한 모든 결과가 반환됩니다. 모든 양수 -1
scoreThreshold 제공된 값을 재정의하는 예측 점수 임곗값을 설정합니다. 모델 메타데이터 (있는 경우) 이 값 미만의 결과는 거부됩니다. [0.0, 1.0] 설정되지 않음
categoryAllowlist 허용되는 카테고리 이름의 목록(선택사항)을 설정합니다. 비어 있지 않은 경우 카테고리 이름이 이 집합에 없는 분류 결과는 표시됩니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 categoryDenylist와 상호 배타적이며 둘 다 오류가 발생합니다. 모든 문자열 설정되지 않음
categoryDenylist 허용되지 않는 카테고리 이름의 목록(선택사항)을 설정합니다. 만약 비어 있지 않음. 카테고리 이름이 이 세트에 포함된 분류 결과가 필터링됩니다. 있습니다. 중복되거나 알 수 없는 카테고리 이름은 무시됩니다. 이 옵션은 categoryAllowlist와 함께 사용할 수 없으며 두 가지를 모두 사용하면 오류가 발생합니다. 모든 문자열 설정되지 않음

데이터 준비

오디오 분류기는 오디오 클립 및 오디오 스트림과 호환되며 오디오도 함께 사용할 수 있습니다. 호스트 브라우저에서 지원하는 모든 형식의 파일. 태스크가 데이터를 처리함 리샘플링, 버퍼링, 프레이밍을 포함한 입력 전처리가 있습니다.

작업 실행

오디오 분류기는 classify() 메서드를 사용하여 오디오 클립 추론을 실행합니다. 오디오 스트림도 있습니다. Audio Classifier API는 가능한 한 입력 오디오에서 인식된 오디오 이벤트의 카테고리입니다.

Audio Classifier classify() 메서드 호출은 동기식으로 실행되고 사용자 인터페이스 스레드입니다. 기기의 마이크에서 오디오를 분류하는 경우 각 분류는 기본 스레드를 차단합니다. 이를 방지하는 방법은 다른 스레드에서 classify()를 실행하도록 웹 작업자 구현

다음 코드는 작업 모델로 처리를 실행하는 방법을 보여줍니다.

오디오 클립

// Create audio buffer
const sample = await response.arrayBuffer();
const audioBuffer = await audioCtx.decodeAudioData(sample);

// Use AudioClassifier to run classification
const results = audioClassifier.classify(
  audioBuffer.getChannelData(0),
  audioBuffer.sampleRate
);
  

오디오 스트림

stream = await navigator.mediaDevices.getUserMedia(constraints);
audioCtx = new AudioContext({ sampleRate: 16000 });

const source = audioCtx.createMediaStreamSource(stream);
const scriptNode = audioCtx.createScriptProcessor(16384, 1, 1);

scriptNode.onaudioprocess = function (audioProcessingEvent) {
  const inputBuffer = audioProcessingEvent.inputBuffer;
  let inputData = inputBuffer.getChannelData(0);

  // Classify the audio
  const result = audioClassifier.classify(inputData);
  const categories = result[0].classifications[0].categories;
};
  

Audio Classifier 작업 실행을 좀 더 전체적으로 구현하려면 코드 예를 참고하세요.

결과 처리 및 표시

추론 실행을 완료하면 Audio Classifier 작업이 가능한 카테고리 목록이 포함된 AudioClassifierResult 객체 입력 오디오 객체용입니다.

AudioClassifierResult:
  Timestamp in microseconds: 100
  ClassificationResult #0:
    Timestamp in microseconds: 100  
    Classifications #0 (single classification head):
      head index: 0
      category #0:
        category name: "Speech"
        score: 0.6
        index: 0
      category #1:
        category name: "Music"
        score: 0.2
        index: 1

오디오 분류 기준 예시 코드는 분류를 표시하는 방법을 보여줍니다. 자세히 알아보려면 코드 예시 참조하세요.