Nesne Dedektörü görevi, birden fazla öğenin mevcut olup olmadığını düşünme egzersizlerini teşvik edersiniz. Örneğin, bir Nesne Dedektörü, web sitenizin görüntüsüdür. Bu talimatlarda, iOS'te Nesne Algılayıcı görevinin nasıl kullanılacağı gösterilmektedir. İlgili içeriği oluşturmak için kullanılan bu talimatlarda açıklanan kod örneğini GitHub'da bulabilirsiniz.
Bu Web sayfasını görüntüleyerek bu görevin nasıl yerine getirildiğini demo'ya gidin. Örneğin, özellikleri, modelleri ve yapılandırma seçenekleri hakkında daha fazla bilgi için Genel Bakış.
Kod örneği
MediaPipe Tasks örnek kodu, bir Nesnenin temel uygulamasıdır iOS için algılayıcı uygulaması. Örnekte, şunun için fiziksel bir iOS cihazındaki kamera kullanılmaktadır: nesneleri sürekli olarak algılayabilir ve cihazdaki resim ve videoları da kullanabilir özelliğini kullanır.
Uygulamayı kendi iOS uygulamanız için bir başlangıç noktası olarak kullanabilir veya buna başvurabilirsiniz mevcut bir uygulamada değişiklik yaparken. Nesne Algılayıcısı örnek kodu, GitHub'a gidin.
Kodu indirme
Aşağıdaki talimatlarda, örneğin yerel bir kopyasını nasıl oluşturacağınız gösterilmektedir kodu oluşturmak için git komut satırı aracını kullanın.
Örnek kodu indirmek için:
Aşağıdaki komutu kullanarak git deposunu klonlayın:
git clone https://github.com/google-ai-edge/mediapipe-samples
İsteğe bağlı olarak, git örneğinizi seyrek ödeme yöntemini kullanacak şekilde yapılandırın. Böylece, yalnızca Nesne Algılayıcı örnek uygulamasına ait dosyalar için:
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/object_detection/ios/
Örnek kodun yerel sürümünü oluşturduktan sonra, MediaPipe görev kitaplığı, Xcode kullanarak projeyi açın ve uygulamayı çalıştırın. Örneğin, iOS için Kurulum Kılavuzu'na bakın.
Temel bileşenler
Aşağıdaki dosyalar, Object Detector örneği için önemli kodu içerir uygulama:
- ObjectDetectorService.swift: Algılayıcıyı başlatır, model seçimini işler ve giriş verileri üzerinde çıkarım yapar.
- CameraViewController.swift: Canlı kamera feed'i giriş modu kullanıcı arayüzünü uygular ve emin olmanız gerekir.
- MediaLibraryViewController.swift: Hareketsiz resim ve video dosyası giriş modu için kullanıcı arayüzünü uygular ve algılama sonuçlarını görselleştirir.
Kurulum
Bu bölümde, geliştirme ortamınızı ve ayarlarınızı yönetmeyle ilgili kod projelerini kullanır. platform sürümü de dahil olmak üzere MediaPipe görevlerini kullanmaya yönelik geliştirme ortamı iOS için kurulum kılavuzuna bakın.
Bağımlılıklar
Nesne Algılayıcı, yüklenmesi gereken MediaPipeTasksVision
kitaplığını kullanır
CocoaPods kullanıyor. Kitaplık hem Swift hem de Objective-C uygulamalarıyla uyumludur.
ve dile özel ek kurulum gerektirmez.
CocoaPods'u macOS'e yükleme talimatları için bkz. CocoaPods
kurulum kılavuzuna başvurun.
Uygulamanız için gerekli kapsülleri içeren bir Podfile
oluşturma talimatlarına
için
CocoaPods'da bulabilirsiniz.
Aşağıdaki kodu kullanarak MediaPipeTasksVision kapsülünü Podfile
bölümüne ekleyin:
target 'MyObjectDetectorApp' do
use_frameworks!
pod 'MediaPipeTasksVision'
end
Uygulamanız birim test hedefleri içeriyorsa
iOS'i kurma hakkında daha fazla bilgi edinin.
Podfile
cihazınız.
Model
MediaPipe Nesne Dedektörü görevi, uyumlu olup eğitilmiş bir model gerektiriyor. karar veriyorum. Mevcut eğitilmiş modeller hakkında daha fazla bilgi için Nesne Algılayıcısı için göreve genel bakış Modelleri bölümünü inceleyin.
Bir model seçip indirin ve Xcode'u kullanarak bu modeli proje dizininize ekleyin. Xcode projenize dosya eklemeyle ilgili talimatlar için bkz. Xcode'daki dosyalar ve klasörler inceleyebilirsiniz.
Modelin yolunu belirtmek için BaseOptions.modelAssetPath
özelliğini kullanın
daha fazla bilgi edineceksiniz. Kod örneği için sonraki bölüme bakın.
Görevi oluşturma
Başlatıcılardan birini çağırarak Nesne Dedektörü görevini oluşturabilirsiniz. İlgili içeriği oluşturmak için kullanılan
ObjectDetector(options:)
başlatıcı, yapılandırma seçenekleri için değerleri ayarlar
koşu modu, görünen adlar yerel ayarı, maksimum sonuç sayısı, güven dahil
eşik, kategori izin verilenler listesi ve ret listesi.
Özelleştirilmiş yapılandırmayla başlatılan bir Nesne Algılayıcısına ihtiyacınız yoksa
seçeneklerini görmek isterseniz ObjectDetector(modelPath:)
başlatıcısını kullanarak
Nesne Algılayıcı'yı varsayılan seçeneklere sahip. Yapılandırma hakkında daha fazla bilgi için
Yapılandırmaya Genel Bakış bölümüne göz atın.
Nesne Algılayıcı görevi 3 giriş verisi türünü destekler: hareketsiz görüntüler, video dosyaları
ve canlı video akışları kullanılabilir. ObjectDetector(modelPath:)
varsayılan olarak
özel bir görevdir. Video işlemek için görevinizin başlatılmasını istiyorsanız
dosya veya canlı video akışı varsa videoyu belirtmek için ObjectDetector(options:)
öğesini kullanın
veya canlı yayın yapabilirsiniz. Canlı yayın modu ayrıca
objectDetectorLiveStreamDelegate
yapılandırma seçeneği sunar. Bu seçenek
Nesne Algılayıcısı, algılama sonuçlarını yetki verilen kullanıcıya eşzamansız olarak gönderir.
Görevin nasıl oluşturulacağını görmek için koşu modunuza karşılık gelen sekmeyi seçin ve çıkarım yapın.
Swift
Resim
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = ObjectDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .image options.maxResults = 5 let objectDetector = try ObjectDetector(options: options)
Video
import MediaPipeTasksVision let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = ObjectDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .video options.maxResults = 5 let objectDetector = try ObjectDetector(options: options)
canlı yayın
import MediaPipeTasksVision // Class that conforms to the `ObjectDetectorLiveStreamDelegate` protocol and // implements the method that the object detector calls once it // finishes performing detection on each input frame. class ObjectDetectorResultProcessor: NSObject, ObjectDetectorLiveStreamDelegate { func objectDetector( _ objectDetector: ObjectDetector, didFinishDetection objectDetectionResult: ObjectDetectorResult?, timestampInMilliseconds: Int, error: Error?) { // Process the detection result or errors here. } } let modelPath = Bundle.main.path(forResource: "model", ofType: "tflite") let options = ObjectDetectorOptions() options.baseOptions.modelAssetPath = modelPath options.runningMode = .liveStream options.maxResults = 5 // Assign an object of the class to the `objectDetectorLiveStreamDelegate` // property. let processor = ObjectDetectorResultProcessor() options.objectDetectorLiveStreamDelegate = processor let objectDetector = try ObjectDetector(options: options)
Objective-C
Resim
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeImage; options.maxResults = 5; MPPObjectDetector *objectDetector = [[MPPObjectDetector alloc] initWithOptions:options error:nil];
Video
@import MediaPipeTasksVision; NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeVideo; options.maxResults = 5; MPPObjectDetector *objectDetector = [[MPPObjectDetector alloc] initWithOptions:options error:nil];
canlı yayın
@import MediaPipeTasksVision; // Class that conforms to the `ObjectDetectorLiveStreamDelegate` protocol and // implements the method that the object detector calls once it // finishes performing detection on each input frame. @interface APPObjectDetectorResultProcessor : NSObject@end @implementation MPPObjectDetectorResultProcessor - (void)objectDetector:(MPPObjectDetector *)objectDetector didFinishDetectionWithResult:(MPPObjectDetectorResult *)ObjectDetectorResult timestampInMilliseconds:(NSInteger)timestampInMilliseconds error:(NSError *)error { // Process the detection result or errors here. } @end NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model" ofType:@"tflite"]; MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init]; options.baseOptions.modelAssetPath = modelPath; options.runningMode = MPPRunningModeLiveStream; options.maxResults = 5; // Assign an object of the class to the `objectDetectorLiveStreamDelegate` // property. APPObjectDetectorResultProcessor *processor = [APPObjectDetectorResultProcessor new]; options.objectDetectorLiveStreamDelegate = processor; MPPObjectDetector *objectDetector = [[MPPObjectDetector alloc] initWithOptions:options error:nil];
Yapılandırma seçenekleri
Bu görev, iOS uygulamaları için aşağıdaki yapılandırma seçeneklerine sahiptir:
Seçenek Adı | Açıklama | Değer Aralığı | Varsayılan Değer |
---|---|---|---|
runningMode |
Görev için çalışma modunu ayarlar. Üç tane var
modlar: . IMAGE: Tek resimli giriş modu. . . VIDEO: Bir videonun kodu çözülmüş karelerine yönelik mod. . . LIVE_STREAM: Giriş canlı yayını modu kameradan alınan veriler gibi. Bu modda, resultListener, sonuçları almak üzere bir dinleyici ayarlamak için çağrıldı eşzamansız olarak ayarlayabilirsiniz. |
{RunningMode.image, RunningMode.video, RunningMode.liveStream } |
RunningMode.image |
displayNamesLocales |
görev modelinin meta verileri (varsa). Şunun için varsayılan: en
İngilizce. Özel bir modelin meta verilerine yerelleştirilmiş etiketler ekleyebilirsiniz
TensorFlow Lite Metadata Writer API'yi kullanarak
|
Yerel ayar kodu | en |
maxResults |
İsteğe bağlı maksimum üst puanlı algılama sonucu sayısını şu değere ayarlar: dön. | Pozitif sayılar | -1 (tüm sonuçlar döndürülür) |
scoreThreshold |
Şu kriterde sağlanan tahmini geçersiz kılan bir tahmin puanı eşiğini belirler: model meta verileri (varsa). Bu değerin altındaki sonuçlar reddedilir. | Herhangi bir kayan nokta | Ayarlanmadı |
categoryAllowlist |
İzin verilen kategori adlarının isteğe bağlı listesini ayarlar. Boş değilse
kategori adı bu kümede bulunmayan algılama sonuçları
filtrelendi. Yinelenen veya bilinmeyen kategori adları yoksayılır.
Bu seçenek categoryDenylist ile birlikte kullanılamaz ve
her ikisi de hataya neden olur. |
Tüm dizeler | Ayarlanmadı |
categoryDenylist |
İzin verilmeyen kategori adlarının isteğe bağlı listesini ayarlar. Eğer
Boş olmayan, kategori adı bu kümede bulunan algılama sonuçları filtrelenir
çıkar. Yinelenen veya bilinmeyen kategori adları yoksayılır. Bu seçenek birlikte
hariç tutmanın yanı sıra her iki sonucun da hatalı olarak kullanılmasıdır.categoryAllowlist |
Tüm dizeler | Ayarlanmadı |
Canlı yayın yapılandırması
Koşu modu canlı yayın olarak ayarlandığında nesne dedektörü için
ek objectDetectorLiveStreamDelegate
yapılandırma seçeneği sunar.
algılayıcının, algılama sonuçlarını eşzamansız olarak sunmasını sağlar. Delege
,
objectDetector(_objectDetector:didFinishDetection:timestampInMilliseconds:error:)
.
Object Detector'ın, Search Ads 360'ın algılama sonucunu işledikten sonra çağırdığı
dikkat edin.
Seçenek adı | Açıklama | Değer Aralığı | Varsayılan Değer |
---|---|---|---|
objectDetectorLiveStreamDelegate |
Nesne Dedektörünün algılama sonuçlarını eşzamansız olarak almasını sağlar
canlı yayın moduna girer. Örneği bu özelliğe ayarlanan sınıf,
objectDetector(_:didFinishDetection:timestampInMilliseconds:error:) .
yöntemidir. |
Geçerli değil | Ayarlanmadı |
Verileri hazırlama
Önce giriş resmini veya çerçeveyi bir MPImage
nesnesine dönüştürmeniz gerekiyor
Nesne Dedektörü'ne iletmektir. MPImage
, farklı iOS görsel türlerini destekler
ve çıkarım için bunları herhangi bir çalışma modunda kullanabilir. Daha fazla
MPImage
hakkında bilgi için
MPImage API
Kullanım alanınıza ve cihazınızın çalışma moduna göre bir iOS resim biçimi seçin.
gerektirir.MPImage
, UIImage
, CVPixelBuffer
ve
CMSampleBuffer
iOS resim biçimi.
UIImage
UIImage
biçimi, aşağıdaki koşu modları için çok uygundur:
Resimler: uygulama paketi, kullanıcı galerisi veya dosya sisteminden şu şekilde biçimlendirilmiş resimler:
UIImage
resim,MPImage
nesnesine dönüştürülebilir.Videolar: AVAssetImageGenerator yöntemini kullanın ve CGImage daha sonra bunları
UIImage
resme dönüştürün.
Swift
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(uiImage: image)
Objective-C
// Load an image on the user's device as an iOS `UIImage` object. // Convert the `UIImage` object to a MediaPipe's Image object having the default // orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
Örnek, bir MPImage
öğesini varsayılan olarak başlatır
UIImage.Orientation.Up
Yönü. MPImage
işlemini, desteklenen herhangi bir
UIImage.Orientation
değerler. Nesne Dedektörü .upMirrored
gibi yansıtılan yönleri desteklemez,
.downMirrored
, .leftMirrored
, .rightMirrored
.
UIImage
hakkında daha fazla bilgi için UIImage Apple Developer uygulamasına bakın
Dokümanlar.
CVPixelBuffer
CVPixelBuffer
biçimi, çerçeve oluşturan uygulamalar için uygundur
ve iOS CoreImage'i kullanmanız gerekir
işleme çerçevesidir.
CVPixelBuffer
biçimi, aşağıdaki koşu modları için çok uygundur:
Resimler: Biraz işlemden sonra
CVPixelBuffer
resim oluşturan uygulamalar Google'ınCoreImage
çerçevesi kullanılarak Nesne Algılayıcı'ya gönderilerek resim çalıştırma moduna geçiyorum.Videolar: Video kareleri, video kareleri için
CVPixelBuffer
biçimine dönüştürülebilir. ve ardından video modunda Nesne Dedektörü'ne gönderilir.canlı yayın: Kare oluşturmak için iOS kamera kullanan uygulamalar dönüştürülebilir gönderilmeden önce işlenmek üzere
CVPixelBuffer
biçiminde Nesne Algılayıcı canlı yayın modunda.
Swift
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(pixelBuffer: pixelBuffer)
Objective-C
// Obtain a CVPixelBuffer. // Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
CVPixelBuffer
hakkında daha fazla bilgi için CVPixelBuffer Apple'a bakın
Geliştirici
Dokümanlar.
CMSampleBuffer
CMSampleBuffer
biçimi, tek tip bir medya türünün medya örneklerini depolar ve
için son derece uygun. iOS kameralardaki canlı kareler
iOS tarafından CMSampleBuffer
biçiminde eşzamansız olarak yayınlanır
AVCaptureVideoDataOutput.
Swift
// Obtain a CMSampleBuffer. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default // orientation `UIImage.Orientation.up`. let image = try MPImage(sampleBuffer: sampleBuffer)
Objective-C
// Obtain a `CMSampleBuffer`. // Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the // default orientation `UIImageOrientationUp`. MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
CMSampleBuffer
hakkında daha fazla bilgi için CMSampleBuffer Apple'a bakın
Geliştirici
Dokümanlar.
Görevi çalıştırma
Nesne Algılayıcı'yı çalıştırmak için atanan öğeye özel detect()
yöntemini kullanın
çalışma modu:
- Hareketsiz resim:
detect(image:)
- Video:
detect(videoFrame:timestampInMilliseconds:)
- canlı yayın:
detectAsync(image:)
Aşağıdaki kod örnekleri, şu farklı koşu modları var:
Swift
Resim
let objectDetector.detect(image:image)
Video
let objectDetector.detect(videoFrame:image)
canlı yayın
let objectDetector.detectAsync(image:image)
Objective-C
Resim
MPPObjectDetectorResult *result = [objectDetector detectInImage:image error:nil];
Video
MPPObjectDetectorResult *result = [objectDetector detectInVideoFrame:image timestampInMilliseconds:timestamp error:nil];
canlı yayın
BOOL success = [objectDetector detectAsyncInImage:image timestampInMilliseconds:timestamp error:nil];
Nesne Algılayıcı kodu örneğinde, bu modlardan her birinin uygulamaları gösterilmektedir.
daha ayrıntılı olarak detect(image:)
, detect(videoFrame:)
ve
detectAsync(image:)
. Örnek kod, kullanıcının
farklı işlem modları vardır.
Aşağıdakileri göz önünde bulundurun:
Video modunda veya canlı yayın modunda çalışırken ayrıca Nesne Algılayıcı görevine giriş çerçevesinin zaman damgası.
Görüntü veya video modunda çalışırken, Nesne Dedektörü görevi öğesini, giriş resmini veya çerçevesini işlemeyi bitirene kadar devam ettirir. Alıcı: mevcut iş parçacığını engellemekten kaçının, işlemeyi arka planda yürütün iOS kullanan iş parçacığı Sevkiyat veya NSOperation çerçeveleri.
Canlı yayın modunda çalışırken Nesne Algılayıcı görevi hemen geri dönüyor ve mevcut ileti dizisini engellemez. İçeriği
objectDetector(_objectDetector:didFinishDetection:timestampInMilliseconds:error:)
. yöntemini kullanır. İlgili içeriği oluşturmak için kullanılan Nesne Algılayıcısı bu yöntemi özel bir seri üzerinde eşzamansız olarak çağırır sevk sırası oluşturun. Sonuçları kullanıcı arayüzünde görüntülemek için, ana sıraya eklenir.detectAsync
işlevi, Nesne Algılayıcı görevi başka bir öğeyi işlemekle meşgulken çağrılır çerçeve içine aldığınızda, Nesne Algılayıcısı yeni giriş çerçevesini yoksayar.
Sonuçları işleme ve görüntüleme
Çıkarım çalıştırıldığında, Nesne Algılayıcı görevi bir ObjectDetectorResult
döndürür.
nesne olarak tanımlar.
Aşağıda, bu görevdeki çıkış verilerinin bir örneği gösterilmektedir:
ObjectDetectorResult:
Detection #0:
Box: (x: 355, y: 133, w: 190, h: 206)
Categories:
index : 17
score : 0.73828
class name : dog
Detection #1:
Box: (x: 103, y: 15, w: 138, h: 369)
Categories:
index : 17
score : 0.73047
class name : dog
Aşağıdaki resimde, görev çıkışının görselleştirmesi gösterilmektedir:
Nesne Algılayıcısı örnek kodu, algılama sonuçlarının nasıl görüntüleneceğini gösterir ayrıntılı bilgi için kod örneğine bakın.