המשימה של הכלי להטמעת תמונות של MediaPipe מאפשרת להמיר נתוני תמונה לייצוג מספרי לביצוע משימות של עיבוד תמונות שקשורות ללמידת מכונה, כמו השוואת מהדמיון בין שתי תמונות. ההוראות האלה מדגימות איך להשתמש כלי להטמעת תמונות באמצעות Python.
מידע נוסף על היכולות, המודלים ואפשרויות ההגדרה במשימה הזאת, ראו סקירה כללית.
קוד לדוגמה
הקוד לדוגמה של כלי הטמעה של תמונות מספק יישום מלא של ב-Python, לעיונך. הקוד הזה עוזר לכם לבדוק את המשימה הזו ולקבל התחלתם ליצור כלי להטמעת תמונות משלכם. ניתן להציג, להריץ ולערוך דוגמה של כלי להטמעת תמונות קוד באמצעות דפדפן האינטרנט בלבד, עם Google Colab. אפשר להציג את קוד המקור עבור בדוגמה הזאת GitHub.
הגדרה
בקטע הזה מתוארים השלבים העיקריים להגדרת סביבת הפיתוח פרויקטים של קוד במיוחד לשימוש בכלי להטמעת תמונות. למידע כללי על להגדיר את סביבת הפיתוח לשימוש במשימות של MediaPipe, כולל הדרישות לגרסאות הפלטפורמה זמינות במדריך ההגדרה עבור Python.
חבילות
המשימה של הכלי להטמעת תמונות (Image Embedder) היא את חבילת ה-Mediapipe Pip. אפשר להתקין את מערכת התלות עם:
$ python -m pip install mediapipe
יבוא
כדי לגשת לפונקציות המשימה של הכלי להטמעת תמונות, מייבאים את המחלקות הבאות:
import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision
דגם
למשימה של הכלי להטמעת תמונות MediaPipe נדרש מודל מאומן שתואם למשימה הזו. לקבלת מידע נוסף על מודלים זמינים מאומנים של כלי להטמעת תמונות, אפשר לעיין במאמר בסקירה הכללית על המשימה בקטע 'מודלים'.
בוחרים מודל ומורידים אותו, ולאחר מכן שומרים אותו בספרייה מקומית. אפשר להשתמש המומלצים MobileNetV3 מודל טרנספורמר.
model_path = '/absolute/path/to/mobilenet_v3_small_075_224_embedder.tflite'
צריך לציין את הנתיב של המודל בתוך הפרמטר model_asset_path
, כפי שמוצג למטה:
base_options = BaseOptions(model_asset_path=model_path)
יצירת המשימה
אפשר להשתמש בפונקציה create_from_options
כדי ליצור את המשימה.
הפונקציה create_from_options
מקבלת אפשרויות הגדרה כדי להגדיר את כלי ההטמעה
אפשרויות. למידע נוסף על אפשרויות ההגדרה, ראו הגדרות אישיות
סקירה כללית
במשימה של הכלי להטמעת תמונות יש תמיכה ב-3 סוגים של נתוני קלט: תמונות סטילס וקובצי וידאו בסטרימינג של וידאו בשידור חי. צריך לבחור את הכרטיסייה שתואמת לסוג נתוני הקלט כדי איך ליצור את המשימה ולהריץ הסקת מסקנות.
תמונה
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageEmbedder = mp.tasks.vision.ImageEmbedder ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions VisionRunningMode = mp.tasks.vision.RunningMode options = ImageEmbedderOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), quantize=True, running_mode=VisionRunningMode.IMAGE) with ImageEmbedder.create_from_options(options) as embedder: # The embedder is initialized. Use it here. # ...
וידאו
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageEmbedder = mp.tasks.vision.ImageEmbedder ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions VisionRunningMode = mp.tasks.vision.RunningMode options = ImageEmbedderOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), quantize=True, running_mode=VisionRunningMode.VIDEO) with ImageEmbedder.create_from_options(options) as embedder: # The embedder is initialized. Use it here. # ...
שידור חי
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageEmbedderResult = mp.tasks.vision.ImageEmbedder.ImageEmbedderResult ImageEmbedder = mp.tasks.vision.ImageEmbedder ImageEmbedderOptions = mp.tasks.vision.ImageEmbedderOptions VisionRunningMode = mp.tasks.vision.RunningMode def print_result(result: ImageEmbedderResult, output_image: mp.Image, timestamp_ms: int): print('ImageEmbedderResult result: {}'.format(result)) options = ImageEmbedderOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), running_mode=VisionRunningMode.LIVE_STREAM, quantize=True, result_callback=print_result) with ImageEmbedder.create_from_options(options) as embedder: # The embedder is initialized. Use it here. # ...
אפשרויות תצורה
המשימה הזו כוללת את אפשרויות ההגדרה הבאות לאפליקציות Python:
שם האפשרות | תיאור | טווח ערכים | ערך ברירת מחדל |
---|---|---|---|
running_mode |
מגדיר את מצב הריצה של המשימה. יש שלושה סוגים
מצבים: IMAGE: המצב לקלט של תמונה יחידה. סרטון: המצב של פריימים מפוענחים בסרטון. LIVE_STREAM: המצב לשידור חי של קלט נתונים ממצלמה, במצב הזה, resultListener חייב להיות נשלחה קריאה כדי להגדיר אוזן כדי לקבל תוצאות באופן אסינכרוני. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
l2_normalize |
האם לנרמל את וקטור התכונה שמוחזר באמצעות נורמת L2. אפשר להשתמש באפשרות הזו רק אם המודל לא מכיל כבר L2_NORMALIZATION TFLite Op. ברוב המקרים, זה כבר המצב, כך מתקבלת נירמול L2 באמצעות הסקת TFLite ללא צורך לאפשרות הזו. | Boolean |
False |
quantize |
האם יש לכמת את ההטמעה שהוחזרה לבייטים באמצעות קוונטיזציה סקלרית. מניחים בהטמעות מרומזות שהן נורות-יחידה לכן מובטח שלכל מאפיין יהיה ערך ב-[-1.0, 1.0]. כדאי להשתמש אם זה לא המצב, תוכלו להשתמש באפשרות l2_regularize. | Boolean |
False |
result_callback |
מגדיר את אוזן התוצאות לקבל את תוצאות ההטמעה
באופן אסינכרוני כאשר מטמיע התמונות נמצא בשידור החי
במצב תצוגה. אפשר להשתמש באפשרות הזו רק כשמצב הריצה מוגדר ל-LIVE_STREAM |
לא רלוונטי | לא מוגדר |
הכנת נתונים
מכינים את הקלט כקובץ תמונה או כמערך נומרי, ואז ממירים אותו
אובייקט mediapipe.Image
. אם הקלט הוא קובץ וידאו או שידור חי
מצלמת אינטרנט, אפשר להשתמש בספרייה חיצונית כמו
OpenCV לטעינת פריימים של קלט בתור numpy
מערכים מגוונים.
תמונה
import mediapipe as mp # Load the input image from an image file. mp_image = mp.Image.create_from_file('/path/to/image') # Load the input image from a numpy array. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
וידאו
import mediapipe as mp # Use OpenCV’s VideoCapture to load the input video. # Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS # You’ll need it to calculate the timestamp for each frame. # Loop through each frame in the video using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
שידור חי
import mediapipe as mp # Use OpenCV’s VideoCapture to start capturing from the webcam. # Create a loop to read the latest frame from the camera using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
הרצת המשימה
אפשר להפעיל את פונקציית ההטמעה שתואמת למצב הריצה מסקנות. Image Embedder API יחזיר את וקטורי ההטמעה קלט תמונה או מסגרת.
תמונה
# Perform image embedding on the provided single image. embedding_result = embedder.embed(mp_image)
וידאו
# Calculate the timestamp of the current frame frame_timestamp_ms = 1000 * frame_index / video_file_fps # Perform image embedding on the video frame. embedding_result = embedder.embed_for_video(mp_image, frame_timestamp_ms)
שידור חי
# Send the latest frame to perform image embedding. # Results are sent to the `result_callback` provided in the `ImageEmbedderOptions`. embedder.embed_async(mp_image, frame_timestamp_ms)
שימו לב לנקודות הבאות:
- כשמפעילים את מצב וידאו או שידור חי, צריך גם מספקים את חותמת הזמן של מסגרת הקלט למשימה של כלי הטמעה של תמונות.
- כשמפעילים את התכונה בתמונה או במודל הסרטון, המשימה של הכלי להטמעת תמונות לחסום את השרשור הנוכחי עד שיסיים לעבד את תמונת הקלט מסגרת.
- כשפועלים במצב שידור חי, המשימה 'כלי להטמעת תמונות' לא חוסמת
השרשור הנוכחי, אבל חוזר מיד. הוא יפעיל את התוצאה שלו
עם תוצאת ההטמעה בכל פעם שהוא מסיים לעבד
מסגרת הקלט. אם מתבצעת קריאה לפונקציה
embedAsync
כשהכלי להטמעת תמונות עסוקה בעיבוד פריים אחר, המשימה מתעלמת ממסגרת הקלט החדשה.
טיפול בתוצאות והצגתן
כשמריצים את ההסקה, המשימה של הכלי להטמעת תמונות מחזירה ImageEmbedderResult
שמכיל את רשימת הקטגוריות האפשריות של האובייקטים בתוך
קלט תמונה או מסגרת.
בדוגמה הבאה אפשר לראות את נתוני הפלט מהמשימה:
ImageEmbedderResult:
Embedding #0 (sole embedding head):
float_embedding: {0.0, 0.0, ..., 0.0, 1.0, 0.0, 0.0, 2.0}
head_index: 0
התוצאה הזו התקבלה על ידי הטמעת התמונה הבאה:
אפשר להשוות בין שתי הטמעות, באמצעות
ImageEmbedder.cosine_similarity
. הקוד הבא מופיע
לדוגמה.
# Compute cosine similarity.
similarity = ImageEmbedder.cosine_similarity(
embedding_result.embeddings[0],
other_embedding_result.embeddings[0])