MediaPipe Solutions bietet eine Reihe von Bibliotheken und Tools, mit denen Sie KI- und ML-Technologien schnell in Ihren Anwendungen einsetzen können. Sie können diese Lösungen sofort in Ihre Anwendungen einbinden, an Ihre Anforderungen anpassen und auf mehreren Entwicklungsplattformen verwenden. MediaPipe Solutions ist Teil des Open-Source-Projekts MediaPipe. Sie können den Code der Lösungen also an Ihre Anwendungsanforderungen anpassen. Die MediaPipe Solutions-Suite umfasst Folgendes:
Diese Bibliotheken und Ressourcen bieten die Hauptfunktionen für jede MediaPipe-Lösung:
MediaPipe Tasks: Plattformübergreifende APIs und Bibliotheken für die Bereitstellung von Lösungen. Weitere Informationen
MediaPipe-Modelle: Vortrainierte, sofort einsatzbereite Modelle für die jeweilige Lösung.
Mit diesen Tools können Sie Lösungen anpassen und bewerten:
MediaPipe Model Maker: Mit Ihren Daten Modelle für Lösungen anpassen. Weitere Informationen
MediaPipe Studio: Lösungen im Browser visualisieren, bewerten und vergleichen. Weitere Informationen
Verfügbare Lösungen
MediaPipe-Lösungen sind auf mehreren Plattformen verfügbar. Jede Lösung enthält ein oder mehrere Modelle. Bei einigen Lösungen können Sie die Modelle auch anpassen. In der folgenden Liste sehen Sie, welche Lösungen für die einzelnen unterstützten Plattformen verfügbar sind und ob Sie das Modell mit Model Maker anpassen können:
Sie können mit MediaPipe Solutions beginnen, indem Sie eine der Aufgaben auswählen, die im linken Navigationsbaum aufgeführt sind, z. B. Vision, Text und Audio.
Wenn Sie Hilfe bei der Einrichtung einer Entwicklungsumgebung für die Verwendung mit MediaPipe Tasks benötigen, lesen Sie die Einrichtungsanleitungen für Android, Web-Apps und Python.
Ältere Lösungen
Seit dem 1. März 2023 werden die unten aufgeführten Legacy-Lösungen von MediaPipe nicht mehr unterstützt. Alle anderen bisherigen MediaPipe-Lösungen werden auf eine neue MediaPipe-Lösung umgestellt. Weitere Informationen finden Sie in der Liste unten. Das Code-Repository und die vorgefertigten Binärdateien für alle Legacy-Lösungen von MediaPipe werden weiterhin unverändert zur Verfügung gestellt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-07-24 (UTC)."],[],[],null,["# MediaPipe Solutions guide\n\nMediaPipe Solutions provides a suite of libraries and tools for you to quickly\napply artificial intelligence (AI) and machine learning (ML) techniques in your\napplications. You can plug these solutions into your applications immediately,\ncustomize them to your needs, and use them across multiple development\nplatforms. MediaPipe Solutions is part of the MediaPipe [open source\nproject](https://github.com/google/mediapipe), so you can further customize the\nsolutions code to meet your application needs. The MediaPipe Solutions suite\nincludes the following:\n\nThese libraries and resources provide the core functionality for each MediaPipe\nSolution:\n\n- **MediaPipe Tasks** : Cross-platform APIs and libraries for deploying solutions. [Learn more](/edge/mediapipe/solutions/tasks)\n- **MediaPipe Models**: Pre-trained, ready-to-run models for use with each solution.\n\nThese tools let you customize and evaluate solutions:\n\n- **MediaPipe Model Maker** : Customize models for solutions with your data. [Learn\n more](/edge/mediapipe/solutions/model_maker)\n- **MediaPipe Studio** : Visualize, evaluate, and benchmark solutions in your browser. [Learn\n more](/edge/mediapipe/solutions/studio)\n\nAvailable solutions\n-------------------\n\nMediaPipe Solutions are available across multiple platforms. Each solution\nincludes one or more models, and you can customize models for some solutions as\nwell. The following list shows what solutions are available for each supported\nplatform and if you can use Model Maker to customize the model:\n\n| Solution | Android | Web | Python | iOS | Customize model |\n|------------------------------------------------------------------------------------|---------|-----|--------|-----|-----------------|\n| [LLM Inference API](/edge/mediapipe/solutions/genai/llm_inference) | | | | | |\n| [Object detection](/edge/mediapipe/solutions/vision/object_detector) | | | | | |\n| [Image classification](/edge/mediapipe/solutions/vision/image_classifier) | | | | | |\n| [Image segmentation](/edge/mediapipe/solutions/vision/image_segmenter) | | | | | |\n| [Interactive segmentation](/edge/mediapipe/solutions/vision/interactive_segmenter) | | | | | |\n| [Hand landmark detection](/edge/mediapipe/solutions/vision/hand_landmarker) | | | | | |\n| [Gesture recognition](/edge/mediapipe/solutions/vision/gesture_recognizer) | | | | | |\n| [Image embedding](/edge/mediapipe/solutions/vision/image_embedder) | | | | | |\n| [Face detection](/edge/mediapipe/solutions/vision/face_detector) | | | | | |\n| [Face landmark detection](/edge/mediapipe/solutions/vision/face_landmarker) | | | | | |\n| [Face stylization](/edge/mediapipe/solutions/vision/face_stylizer) | | | | | |\n| [Pose landmark detection](/edge/mediapipe/solutions/vision/pose_landmarker) | | | | | |\n| [Image generation](/edge/mediapipe/solutions/vision/image_generator) | | | | | |\n| [Text classification](/edge/mediapipe/solutions/text/text_classifier) | | | | | |\n| [Text embedding](/edge/mediapipe/solutions/text/text_embedder) | | | | | |\n| [Language detector](/edge/mediapipe/solutions/text/language_detector) | | | | | |\n| [Audio classification](/edge/mediapipe/solutions/audio/audio_classifier) | | | | | |\n\nGet started\n-----------\n\nYou can get started with MediaPipe Solutions by selecting any of the tasks\nlisted in the left navigation tree, including\n[vision](/edge/mediapipe/solutions/vision/object_detector),\n[text](/edge/mediapipe/solutions/text/text_classifier), and\n[audio](/edge/mediapipe/solutions/audio/audio_classifier) tasks.\nIf you need help setting up a development environment for use with MediaPipe\nTasks, check out the setup guides for\n[Android](/edge/mediapipe/solutions/setup_android),\n[web apps](/edge/mediapipe/solutions/setup_web), and\n[Python](/edge/mediapipe/solutions/setup_python).\n\nLegacy solutions\n----------------\n\nWe have ended support for the MediaPipe Legacy Solutions listed below as of\nMarch 1, 2023. All other MediaPipe Legacy Solutions will be upgraded to a new\nMediaPipe Solution. See the list below for details. The\n[code repository](https://github.com/google/mediapipe/tree/master/mediapipe) and\nprebuilt binaries for all MediaPipe Legacy Solutions will continue to be\nprovided on an as-is basis.\n\n| Legacy Solution | Status | New MediaPipe Solution |\n|-----------------------------------------------------------------------------------------------------------------------------|--------------------------------------|--------------------------------------------------------------|\n| Face Detection ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/face_detection.md)) | [Upgraded](./vision/face_detector) | [Face detection](./vision/face_detector) |\n| Face Mesh ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/face_mesh.md)) | [Upgraded](./vision/face_landmarker) | [Face landmark detection](./vision/face_landmarker) |\n| Iris ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/iris.md)) | [Upgraded](./vision/face_landmarker) | [Face landmark detection](./vision/face_landmarker) |\n| Hands ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/hands.md)) | [Upgraded](./vision/hand_landmarker) | [Hand landmark detection](./vision/hand_landmarker) |\n| Pose ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/pose.md)) | [Upgraded](./vision/pose_landmarker) | [Pose landmark detection](./vision/pose_landmarker) |\n| Holistic ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/holistic.md)) | Upgrade | [Holistic landmarks detection](./vision/holistic_landmarker) |\n| Selfie segmentation ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/selfie_segmentation.md)) | [Upgraded](./vision/image_segmenter) | [Image segmentation](./vision/image_segmenter) |\n| Hair segmentation ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/hair_segmentation.md)) | [Upgraded](./vision/image_segmenter) | [Image segmentation](./vision/image_segmenter) |\n| Object detection ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/object_detection.md)) | [Upgraded](./vision/object_detector) | [Object detection](./vision/object_detector) |\n| Box tracking ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/box_tracking.md)) | Support ended | |\n| Instant motion tracking ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/instant_motion_tracking.md)) | Support ended | |\n| Objectron ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/objectron.md)) | Support ended | |\n| KNIFT ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/knift.md)) | Support ended | |\n| AutoFlip ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/autoflip.md)) | Support ended | |\n| MediaSequence ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/media_sequence.md)) | Support ended | |\n| YouTube 8M ([info](https://github.com/google/mediapipe/blob/master/docs/solutions/youtube_8m.md)) | Support ended | |"]]