La tâche de classification audio MediaPipe vous permet d'effectuer une classification sur des données audio. Vous pouvez utilisez cette tâche pour identifier les événements sonores à partir d'un ensemble de catégories entraînées. Ces vous expliquent comment utiliser le classificateur audio avec des applications Android.
Pour en savoir plus sur les fonctionnalités, les modèles et les options de configuration de cette tâche, consultez la section Présentation.
Exemple de code
L'exemple de code MediaPipe Tasks est une implémentation simple d'un classificateur audio pour Android. Cet exemple utilise le micro d'un appareil Android physique pour classer les sons en continu et exécuter le classificateur sur les fichiers audio stockées sur l'appareil.
Vous pouvez utiliser l'application comme point de départ pour votre propre application Android ou vous y référer. lorsque vous modifiez une application existante. L'exemple de code pour le classificateur audio est hébergé GitHub
Télécharger le code
Les instructions suivantes vous expliquent comment créer une copie locale de l'exemple à l'aide de l'outil de ligne de commande git.
<ph type="x-smartling-placeholder">Pour télécharger l'exemple de code:
- Clonez le dépôt Git à l'aide de la commande suivante:
git clone https://github.com/google-ai-edge/mediapipe-samples
- Vous pouvez éventuellement configurer votre instance Git pour utiliser le paiement creuse.
Vous n'avez donc que les fichiers de l'application exemple de classificateur audio:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/audio_classifier/android
Après avoir créé une version locale de l'exemple de code, vous pouvez importer le projet dans Android Studio et exécuter l'application. Pour obtenir des instructions, consultez les Guide de configuration pour Android
Composants clés
Les fichiers suivants contiennent le code essentiel pour ce contenu audio Exemple d'application de classification:
- AudioClassifierHelper.kt : Il initialise le classificateur audio, et gère le modèle et la délégation de votre choix.
- RecorderFragment.kt : Crée l'interface utilisateur et le code de contrôle pour l'enregistrement audio en direct.
- LibraryFragment.kt : Crée l'interface utilisateur et le code de contrôle pour la sélection de fichiers audio.
- ProbabilitiesAdapter.kt : Gère et met en forme les résultats de prédiction du classificateur.
Configuration
Cette section décrit les étapes clés à suivre pour configurer votre environnement de développement spécifiquement pour utiliser le classificateur audio. Pour obtenir des informations générales sur configurer votre environnement de développement pour utiliser les tâches MediaPipe, y compris versions de la plate-forme requises, consultez la Guide de configuration pour Android
<ph type="x-smartling-placeholder">Dépendances
Le classificateur audio utilise la bibliothèque com.google.mediapipe:tasks-audio
. Ajouter
au fichier build.gradle
de votre
Projet de développement d'applications Android. Importez les dépendances requises avec
le code suivant:
dependencies {
...
implementation 'com.google.mediapipe:tasks-audio:latest.release'
}
Modèle
La tâche de classification audio MediaPipe nécessite un modèle entraîné et compatible avec tâche. Pour en savoir plus sur les modèles entraînés disponibles pour le classificateur audio, consultez la section Modèles de la présentation des tâches.
Sélectionnez et téléchargez le modèle, puis stockez-le dans le répertoire de votre projet:
<dev-project-root>/src/main/assets
Utiliser la méthode BaseOptions.Builder.setModelAssetPath()
pour spécifier le chemin d'accès
utilisées par le modèle. Cette méthode est mentionnée dans l'exemple de code de la
.
Dans
Exemple de code pour le classificateur audio
le modèle est défini dans l'élément AudioClassifierHelper.kt
.
.
Créer la tâche
Vous pouvez utiliser la fonction createFromOptions
pour créer la tâche. La
La fonction createFromOptions
accepte les options de configuration, y compris l'exécution
mode, paramètres régionaux des noms à afficher, nombre maximal de résultats, seuil de confiance,
et une liste d'autorisation
ou de refus de catégories. Pour en savoir plus sur la configuration
consultez la page Présentation de la configuration.
La tâche "Outil de classification audio" accepte les types de données d'entrée suivants: clips audio et les flux audio. Vous devez spécifier le mode d'exécution correspondant votre type de données d'entrée lorsque vous créez une tâche. Choisissez l'onglet correspondant votre type de données d'entrée pour découvrir comment créer la tâche et exécuter l'inférence.
Clips audio
AudioClassifierOptions options = AudioClassifierOptions.builder() .setBaseOptions( BaseOptions.builder().setModelAssetPath("model.tflite").build()) .setRunningMode(RunningMode.AUDIO_CLIPS) .setMaxResults(5) .build(); audioClassifier = AudioClassifier.createFromOptions(context, options);
Flux audio
AudioClassifierOptions options = AudioClassifierOptions.builder() .setBaseOptions( BaseOptions.builder().setModelAssetPath("model.tflite").build()) .setRunningMode(RunningMode.AUDIO_STREAM) .setMaxResults(5) .setResultListener(audioClassifierResult -> { // Process the classification result here. }) .build(); audioClassifier = AudioClassifier.createFromOptions(context, options);
L'exemple d'implémentation de code pour le classificateur audio permet à l'utilisateur de basculer entre
différents modes de traitement. L'approche rend le code de création
de la tâche plus compliqué et
peuvent ne pas être adaptés à votre cas d'utilisation. Vous pouvez voir le code de changement de mode
dans la fonction initClassifier()
du
AudioClassifierHelper
Options de configuration
Cette tâche comporte les options de configuration suivantes pour les applications Android:
Nom de l'option | Description | Plage de valeurs | Valeur par défaut |
---|---|---|---|
runningMode |
Définit le mode d'exécution de la tâche. Le classificateur audio propose deux modes: AUDIO_CLIPS: mode d'exécution de la tâche audio sur des clips audio indépendants AUDIO_STREAM: mode permettant d'exécuter la tâche audio sur un flux audio, par exemple à partir d'un micro. Dans ce mode, resultListener doit être appelé pour configurer un écouteur afin de recevoir les résultats de la classification. de manière asynchrone. |
{AUDIO_CLIPS, AUDIO_STREAM } |
AUDIO_CLIPS |
displayNamesLocale |
Définit la langue des libellés à utiliser pour les noms à afficher fournis dans les
les métadonnées du modèle de la tâche, le cas échéant. La valeur par défaut est en pour
anglais. Vous pouvez ajouter des libellés localisés aux métadonnées d'un modèle personnalisé
à l'aide de l'API TensorFlow Lite Metadata Writer ;
| Code des paramètres régionaux | en |
maxResults |
Définit le nombre maximal facultatif de résultats de classification les mieux notés sur retour. Si < 0, tous les résultats disponibles sont renvoyés. | Tous les nombres positifs | -1 |
scoreThreshold |
Définit le seuil de score de prédiction qui remplace celui indiqué dans les métadonnées du modèle (le cas échéant). Les résultats inférieurs à cette valeur sont refusés. | [0,0, 1,0] | Non défini |
categoryAllowlist |
Définit la liste facultative des noms de catégories autorisés. Si ce champ n'est pas vide,
les résultats de classification dont le nom de catégorie ne fait pas partie de cet ensemble seront
filtrées. Les noms de catégories en double ou inconnus sont ignorés.
Cette option s'exclue mutuellement avec categoryDenylist et utilise
génèrent une erreur. |
Toutes les chaînes | Non défini |
categoryDenylist |
Définit la liste facultative des noms de catégories non autorisés. Si
non vide, les résultats de classification dont le nom de catégorie se trouve dans cet ensemble seront filtrés
s'affiche. Les noms de catégories en double ou inconnus sont ignorés. Cette option est mutuellement
exclusive avec categoryAllowlist et l'utilisation des deux entraîne une erreur. |
Toutes les chaînes | Non défini |
resultListener |
Définit l'écouteur des résultats pour qu'il reçoive les résultats de la classification.
de manière asynchrone lorsque le classificateur audio se trouve dans le flux audio.
. Ne peut être utilisé que lorsque le mode d'exécution est défini sur AUDIO_STREAM |
N/A | Non défini |
errorListener |
Définit un écouteur d'erreurs facultatif. | N/A | Non défini |
Préparer les données
Le classificateur audio fonctionne avec les clips audio et les flux audio. La tâche
gère le prétraitement de l'entrée des données, y compris le rééchantillonnage, la mise en mémoire tampon et le cadrage.
Cependant, vous devez convertir les données audio d'entrée
com.google.mediapipe.tasks.components.containers.AudioData
avant de le transmettre à la tâche de classificateur audio.
Clips audio
import com.google.mediapipe.tasks.components.containers.AudioData; // Load an audio on the user’s device as a float array. // Convert a float array to a MediaPipe’s AudioData object. AudioData audioData = AudioData.create( AudioData.AudioDataFormat.builder() .setNumOfChannels(numOfChannels) .setSampleRate(sampleRate) .build(), floatData.length); audioData.load(floatData);
Flux audio
import android.media.AudioRecord; import com.google.mediapipe.tasks.components.containers.AudioData; AudioRecord audioRecord = audioClassifier.createAudioRecord(/* numChannels= */ 1, /* sampleRate= */ 16000); audioRecord.startRecording(); ... // To get a one second clip from the AudioRecord object: AudioData audioData = AudioData.create( 16000 /*sample counts per second*/); AudioData.AudioDataFormat.create(audioRecord.getFormat()), audioData.load(audioRecord)
Exécuter la tâche
Vous pouvez appeler la fonction classify
correspondant à votre mode de course pour :
pour déclencher des inférences. L'API Audio Classifier renvoie les catégories possibles pour
les événements audio reconnus dans
les données audio d'entrée.
Clips audio
AudioClassifierResult classifierResult = audioClassifier.classify(audioData);
Flux audio
// Run inference on the audio block. The classifications results will be available // via the `resultListener` provided in the `AudioClassifierOptions` when // the audio classifier was created. audioClassifier.classifyAsync(audioBlock, timestampMs);
Veuillez noter les points suivants :
- Lors de l'exécution en mode de flux audio, vous devez également fournir le paramètre Tâche de classificateur audio avec un code temporel pour suivre les données audio qu'elle contient le flux a été utilisé pour l'inférence.
- Lors de l'exécution dans le modèle de clips audio, la tâche de classificateur audio bloque jusqu'à ce qu'il ait fini de traiter l'audio d'entrée. Pour éviter de bloquer les réponses de l'interface utilisateur, exécutez le traitement dans un thread d'arrière-plan.
Pour voir un exemple d'exécution d'un classificateur audio avec des clips audio, consultez la
Classe AudioClassifierHelper
dans
exemple de code.
Gérer et afficher les résultats
Après l'exécution d'une inférence, la tâche "Classificateur audio" renvoie une liste pour les événements audio dans l'audio d'entrée. La liste suivante montre un exemple de données de sortie de cette tâche:
AudioClassifierResult:
Timestamp in microseconds: 100
ClassificationResult #0:
Timestamp in microseconds: 100
Classifications #0 (single classification head):
head index: 0
category #0:
category name: "Speech"
score: 0.6
index: 0
category #1:
category name: "Music"
score: 0.2
index: 1
Dans une application Android, la tâche renvoie un ClassificationResult
contenant un
liste d'objets AudioClassifierResult
représentant les prédictions pour une
événement audio, y compris l'étiquette de la catégorie et le score de confiance.
Clips audio
// In the audio clips mode, the classification results are for the entire audio // clip. The results are timestamped AudioClassifierResult objects, each // classifying an interval of the entire audio clip that starts at // ClassificationResult.timestampMs().get(). for (ClassificationResult result : audioClassifierResult.classificationResults()) { // Audio interval start timestamp: result.timestampMs().get(); // Classification result of the audio interval. result.classifications(); }
Flux audio
// In the audio stream mode, the classification results list only contains one // element, representing the classification result of the audio block that // starts at ClassificationResult.timestampMs in the audio stream. ClassificationResult result = audioClassifierResult.classificationResults().get(0); // The audio block start timestamp audioClassifierResult.timestampMs(); // Alternatively, the same timestamp can be retrieved from // result.timestampMs().get(); // Classification result. result.classifications();
Vous pouvez voir un exemple d'affichage de la classification
résultats renvoyés par cette tâche dans la classe ProbabilitiesAdapter
du
exemple de code.