Die AAR-Bibliothek (MediaPipe Framework) bietet eine bequeme Möglichkeit, das MediaPipe-Framework mit Android Studio und Gradle zu verwenden. Das MediaPipe-Framework veröffentlicht kein allgemeines AAE, das von allen Projekten verwendet werden kann. Stattdessen müssen Entwickler ein „mediapipe_aar()“-Ziel erstellen, um eine benutzerdefinierte AAR-Datei für ihre eigenen Projekte zu generieren. Dies ist erforderlich, um spezifische Ressourcen wie MediaPipe-Rechner einzubeziehen, die für jedes Projekt benötigt werden.
Schritte zum Erstellen eines automatisch angewendeten Empfehlungen beim MediaPipe-Framework
Erstellt ein mediapipe_aar()-Ziel.
Erstellen Sie im MediaPipe-Verzeichnis ein neues „mediapipe_aar()“-Ziel in einer build-Datei. Sie müssen herausfinden, welche Rechner in der Grafik verwendet werden, und die Rechner-Abhängigkeiten für die mediapipe_aar() angeben. Um beispielsweise ein AAE für eine Gesichtserkennungsgrafik zu erstellen, können Sie den folgenden Code in mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example/build einfügen.
load("//mediapipe/java/com/google/mediapipe:mediapipe_aar.bzl", "mediapipe_aar") mediapipe_aar( name = "mediapipe_face_detection", calculators = ["//mediapipe/graphs/face_detection:mobile_calculators"], )
Führen Sie den zum Erstellen von AARs erforderlichen Befehl zum Erstellen von Looker aus.
bazel build -c opt --strip=ALWAYS \ --host_crosstool_top=@bazel_tools//tools/cpp:toolchain \ --fat_apk_cpu=arm64-v8a,armeabi-v7a \ --legacy_whole_archive=0 \ --features=-legacy_whole_archive \ --copt=-fvisibility=hidden \ --copt=-ffunction-sections \ --copt=-fdata-sections \ --copt=-fstack-protector \ --copt=-Oz \ --copt=-fomit-frame-pointer \ --copt=-DABSL_MIN_LOG_LEVEL=2 \ --linkopt=-Wl,--gc-sections,--strip-all \ //path/to/the/aar/build/file:aar_name.aar
Führen Sie für das in Schritt 1 erstellte AAE-Ziel für die Gesichtserkennung folgenden Befehl aus:
bazel build -c opt --strip=ALWAYS \ --host_crosstool_top=@bazel_tools//tools/cpp:toolchain \ --fat_apk_cpu=arm64-v8a,armeabi-v7a \ --legacy_whole_archive=0 \ --features=-legacy_whole_archive \ --copt=-fvisibility=hidden \ --copt=-ffunction-sections \ --copt=-fdata-sections \ --copt=-fstack-protector \ --copt=-Oz \ --copt=-fomit-frame-pointer \ --copt=-DABSL_MIN_LOG_LEVEL=2 \ --linkopt=-Wl,--gc-sections,--strip-all \ //mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example:mediapipe_face_detection.aar # It should print: # Target //mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example:mediapipe_face_detection.aar up-to-date: # bazel-bin/mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example/mediapipe_face_detection.aar
Optional: Speichern Sie die automatisch angewendeten Empfehlungen am gewünschten Ort.
cp bazel-bin/mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example/mediapipe_face_detection.aar /absolute/path/to/your/preferred/location
Anleitung zur Verwendung eines AAR des MediaPipe-Frameworks in Android Studio mit Gradle
Starten Sie Android Studio und rufen Sie Ihr Projekt auf.
Kopieren Sie die automatisch angewendeten Empfehlungen in „app/libs“.
cp bazel-bin/mediapipe/examples/android/src/java/com/google/mediapipe/apps/aar_example/mediapipe_face_detection.aar /path/to/your/app/libs/
Erstellen Sie „app/src/main/assets“ und kopieren Sie Assets (Diagramm, Modell usw.) in „app/src/main/assets“.
Erstellen Sie die binäre MediaPipe-Grafik und kopieren Sie die Assets in app/src/main/assets. Für die Gesichtserkennungsgrafik müssen Sie beispielsweise das Binärdiagramm und das TFlite-Modell zur Gesichtserkennung erstellen und kopieren.
bazel build -c opt mediapipe/graphs/face_detection:face_detection_mobile_gpu_binary_graph cp bazel-bin/mediapipe/graphs/face_detection/face_detection_mobile_gpu.binarypb /path/to/your/app/src/main/assets/ cp mediapipe/modules/face_detection/face_detection_short_range.tflite /path/to/your/app/src/main/assets/
Ändern Sie app/build.gradle, um MediaPipe-Abhängigkeiten und MediaPipe-AAE hinzuzufügen.
dependencies { implementation fileTree(dir: 'libs', include: ['*.jar', '*.aar']) implementation 'androidx.appcompat:appcompat:1.0.2' implementation 'androidx.constraintlayout:constraintlayout:1.1.3' testImplementation 'junit:junit:4.12' androidTestImplementation 'androidx.test.ext:junit:1.1.0' androidTestImplementation 'androidx.test.espresso:espresso-core:3.1.1' // MediaPipe deps implementation 'com.google.flogger:flogger:latest.release' implementation 'com.google.flogger:flogger-system-backend:latest.release' implementation 'com.google.code.findbugs:jsr305:latest.release' implementation 'com.google.guava:guava:27.0.1-android' implementation 'com.google.protobuf:protobuf-javalite:3.19.1' // CameraX core library def camerax_version = "1.0.0-beta10" implementation "androidx.camera:camera-core:$camerax_version" implementation "androidx.camera:camera-camera2:$camerax_version" implementation "androidx.camera:camera-lifecycle:$camerax_version" // AutoValue def auto_value_version = "1.8.1" implementation "com.google.auto.value:auto-value-annotations:$auto_value_version" annotationProcessor "com.google.auto.value:auto-value:$auto_value_version" }
Folgen Sie unseren Android-App-Beispielen, um MediaPipe in Android Studio für Ihren Anwendungsfall zu verwenden. Ein Beispiel für die Gesichtserkennung finden Sie hier und ein Beispiel für ein mehrhändiges Tracking finden Sie hier.