iOS için nesne algılama rehberi

Nesne Dedektörü görevi, birden fazla öğenin mevcut olup olmadığını düşünme egzersizlerini teşvik edersiniz. Örneğin, bir Nesne Dedektörü, web sitenizin görüntüsüdür. Bu talimatlarda, iOS'te Nesne Algılayıcı görevinin nasıl kullanılacağı gösterilmektedir. İlgili içeriği oluşturmak için kullanılan bu talimatlarda açıklanan kod örneğini GitHub'da bulabilirsiniz.

Bu Web sayfasını görüntüleyerek bu görevin nasıl yerine getirildiğini demo'ya gidin. Örneğin, özellikleri, modelleri ve yapılandırma seçenekleri hakkında daha fazla bilgi için Genel Bakış.

Kod örneği

MediaPipe Tasks örnek kodu, bir Nesnenin temel uygulamasıdır iOS için algılayıcı uygulaması. Örnekte, şunun için fiziksel bir iOS cihazındaki kamera kullanılmaktadır: nesneleri sürekli olarak algılayabilir ve cihazdaki resim ve videoları da kullanabilir özelliğini kullanır.

Uygulamayı kendi iOS uygulamanız için bir başlangıç noktası olarak kullanabilir veya buna başvurabilirsiniz mevcut bir uygulamada değişiklik yaparken. Nesne Algılayıcısı örnek kodu, GitHub'a gidin.

Kodu indirme

Aşağıdaki talimatlarda, örneğin yerel bir kopyasını nasıl oluşturacağınız gösterilmektedir kodu oluşturmak için git komut satırı aracını kullanın.

Örnek kodu indirmek için:

  1. Aşağıdaki komutu kullanarak git deposunu klonlayın:

    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. İsteğe bağlı olarak, git örneğinizi seyrek ödeme yöntemini kullanacak şekilde yapılandırın. Böylece, yalnızca Nesne Algılayıcı örnek uygulamasına ait dosyalar için:

    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/object_detection/ios/
    

Örnek kodun yerel sürümünü oluşturduktan sonra, MediaPipe görev kitaplığı, Xcode kullanarak projeyi açın ve uygulamayı çalıştırın. Örneğin, iOS için Kurulum Kılavuzu'na bakın.

Temel bileşenler

Aşağıdaki dosyalar, Object Detector örneği için önemli kodu içerir uygulama:

Kurulum

Bu bölümde, geliştirme ortamınızı ve ayarlarınızı yönetmeyle ilgili kod projelerini kullanır. platform sürümü de dahil olmak üzere MediaPipe görevlerini kullanmaya yönelik geliştirme ortamı iOS için kurulum kılavuzuna bakın.

Bağımlılıklar

Nesne Algılayıcı, yüklenmesi gereken MediaPipeTasksVision kitaplığını kullanır CocoaPods kullanıyor. Kitaplık hem Swift hem de Objective-C uygulamalarıyla uyumludur. ve dile özel ek kurulum gerektirmez.

CocoaPods'u macOS'e yükleme talimatları için bkz. CocoaPods kurulum kılavuzuna başvurun. Uygulamanız için gerekli kapsülleri içeren bir Podfile oluşturma talimatlarına için CocoaPods'da bulabilirsiniz.

Aşağıdaki kodu kullanarak MediaPipeTasksVision kapsülünü Podfile bölümüne ekleyin:

target 'MyObjectDetectorApp' do
  use_frameworks!
  pod 'MediaPipeTasksVision'
end

Uygulamanız birim test hedefleri içeriyorsa iOS'i kurma hakkında daha fazla bilgi edinin. Podfile cihazınız.

Model

MediaPipe Nesne Dedektörü görevi, uyumlu olup eğitilmiş bir model gerektiriyor. karar veriyorum. Mevcut eğitilmiş modeller hakkında daha fazla bilgi için Nesne Algılayıcısı için göreve genel bakış Modelleri bölümünü inceleyin.

Bir model seçip indirin ve Xcode'u kullanarak bu modeli proje dizininize ekleyin. Xcode projenize dosya eklemeyle ilgili talimatlar için bkz. Xcode'daki dosyalar ve klasörler inceleyebilirsiniz.

Modelin yolunu belirtmek için BaseOptions.modelAssetPath özelliğini kullanın daha fazla bilgi edineceksiniz. Kod örneği için sonraki bölüme bakın.

Görevi oluşturma

Başlatıcılardan birini çağırarak Nesne Dedektörü görevini oluşturabilirsiniz. İlgili içeriği oluşturmak için kullanılan ObjectDetector(options:) başlatıcı, yapılandırma seçenekleri için değerleri ayarlar koşu modu, görünen adlar yerel ayarı, maksimum sonuç sayısı, güven dahil eşik, kategori izin verilenler listesi ve ret listesi.

Özelleştirilmiş yapılandırmayla başlatılan bir Nesne Algılayıcısına ihtiyacınız yoksa seçeneklerini görmek isterseniz ObjectDetector(modelPath:) başlatıcısını kullanarak Nesne Algılayıcı'yı varsayılan seçeneklere sahip. Yapılandırma hakkında daha fazla bilgi için Yapılandırmaya Genel Bakış bölümüne göz atın.

Nesne Algılayıcı görevi 3 giriş verisi türünü destekler: hareketsiz görüntüler, video dosyaları ve canlı video akışları kullanılabilir. ObjectDetector(modelPath:) varsayılan olarak özel bir görevdir. Video işlemek için görevinizin başlatılmasını istiyorsanız dosya veya canlı video akışı varsa videoyu belirtmek için ObjectDetector(options:) öğesini kullanın veya canlı yayın yapabilirsiniz. Canlı yayın modu ayrıca objectDetectorLiveStreamDelegate yapılandırma seçeneği sunar. Bu seçenek Nesne Algılayıcısı, algılama sonuçlarını yetki verilen kullanıcıya eşzamansız olarak gönderir.

Görevin nasıl oluşturulacağını görmek için koşu modunuza karşılık gelen sekmeyi seçin ve çıkarım yapın.

Swift

Resim

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "tflite")

let options = ObjectDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .image
options.maxResults = 5

let objectDetector = try ObjectDetector(options: options)
    

Video

import MediaPipeTasksVision

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "tflite")

let options = ObjectDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .video
options.maxResults = 5

let objectDetector = try ObjectDetector(options: options)
    

canlı yayın

import MediaPipeTasksVision

// Class that conforms to the `ObjectDetectorLiveStreamDelegate` protocol and
// implements the method that the object detector calls once it
// finishes performing detection on each input frame.
class ObjectDetectorResultProcessor: NSObject, ObjectDetectorLiveStreamDelegate {

  func objectDetector(
    _ objectDetector: ObjectDetector,
    didFinishDetection objectDetectionResult: ObjectDetectorResult?,
    timestampInMilliseconds: Int,
    error: Error?) {
    // Process the detection result or errors here.
  }
}

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "tflite")

let options = ObjectDetectorOptions()
options.baseOptions.modelAssetPath = modelPath
options.runningMode = .liveStream
options.maxResults = 5

// Assign an object of the class to the `objectDetectorLiveStreamDelegate`
// property.
let processor = ObjectDetectorResultProcessor()
options.objectDetectorLiveStreamDelegate = processor

let objectDetector = try ObjectDetector(options: options)
    

Objective-C

Resim

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeImage;
options.maxResults = 5;

MPPObjectDetector *objectDetector =
      [[MPPObjectDetector alloc] initWithOptions:options error:nil];
    

Video

@import MediaPipeTasksVision;

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeVideo;
options.maxResults = 5;

MPPObjectDetector *objectDetector =
      [[MPPObjectDetector alloc] initWithOptions:options error:nil];
    

canlı yayın

@import MediaPipeTasksVision;

// Class that conforms to the `ObjectDetectorLiveStreamDelegate` protocol and
// implements the method that the object detector calls once it
// finishes performing detection on each input frame.

@interface APPObjectDetectorResultProcessor : NSObject 

@end

@implementation MPPObjectDetectorResultProcessor

-   (void)objectDetector:(MPPObjectDetector *)objectDetector
    didFinishDetectionWithResult:(MPPObjectDetectorResult *)ObjectDetectorResult
         timestampInMilliseconds:(NSInteger)timestampInMilliseconds
                           error:(NSError *)error {

    // Process the detection result or errors here.

}

@end

NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"model"
                                                      ofType:@"tflite"];

MPPObjectDetectorOptions *options = [[MPPObjectDetectorOptions alloc] init];
options.baseOptions.modelAssetPath = modelPath;
options.runningMode = MPPRunningModeLiveStream;
options.maxResults = 5;

// Assign an object of the class to the `objectDetectorLiveStreamDelegate`
// property.
APPObjectDetectorResultProcessor *processor = [APPObjectDetectorResultProcessor new];
options.objectDetectorLiveStreamDelegate = processor;

MPPObjectDetector *objectDetector =
      [[MPPObjectDetector alloc] initWithOptions:options error:nil];
    

Yapılandırma seçenekleri

Bu görev, iOS uygulamaları için aşağıdaki yapılandırma seçeneklerine sahiptir:

Seçenek Adı Açıklama Değer Aralığı Varsayılan Değer
runningMode Görev için çalışma modunu ayarlar. Üç tane var modlar:

. IMAGE: Tek resimli giriş modu.
.
. VIDEO: Bir videonun kodu çözülmüş karelerine yönelik mod.
.
. LIVE_STREAM: Giriş canlı yayını modu kameradan alınan veriler gibi. Bu modda, resultListener, sonuçları almak üzere bir dinleyici ayarlamak için çağrıldı eşzamansız olarak ayarlayabilirsiniz.
{RunningMode.image, RunningMode.video, RunningMode.liveStream} RunningMode.image
displayNamesLocales görev modelinin meta verileri (varsa). Şunun için varsayılan: en İngilizce. Özel bir modelin meta verilerine yerelleştirilmiş etiketler ekleyebilirsiniz TensorFlow Lite Metadata Writer API'yi kullanarak Yerel ayar kodu en
maxResults İsteğe bağlı maksimum üst puanlı algılama sonucu sayısını şu değere ayarlar: dön. Pozitif sayılar -1 (tüm sonuçlar döndürülür)
scoreThreshold Şu kriterde sağlanan tahmini geçersiz kılan bir tahmin puanı eşiğini belirler: model meta verileri (varsa). Bu değerin altındaki sonuçlar reddedilir. Herhangi bir kayan nokta Ayarlanmadı
categoryAllowlist İzin verilen kategori adlarının isteğe bağlı listesini ayarlar. Boş değilse kategori adı bu kümede bulunmayan algılama sonuçları filtrelendi. Yinelenen veya bilinmeyen kategori adları yoksayılır. Bu seçenek categoryDenylist ile birlikte kullanılamaz ve her ikisi de hataya neden olur. Tüm dizeler Ayarlanmadı
categoryDenylist İzin verilmeyen kategori adlarının isteğe bağlı listesini ayarlar. Eğer Boş olmayan, kategori adı bu kümede bulunan algılama sonuçları filtrelenir çıkar. Yinelenen veya bilinmeyen kategori adları yoksayılır. Bu seçenek birlikte hariç tutmanın yanı sıra her iki sonucun da hatalı olarak kullanılmasıdır.categoryAllowlist Tüm dizeler Ayarlanmadı

Canlı yayın yapılandırması

Koşu modu canlı yayın olarak ayarlandığında nesne dedektörü için ek objectDetectorLiveStreamDelegate yapılandırma seçeneği sunar. algılayıcının, algılama sonuçlarını eşzamansız olarak sunmasını sağlar. Delege , objectDetector(_objectDetector:didFinishDetection:timestampInMilliseconds:error:). Object Detector'ın, Search Ads 360'ın algılama sonucunu işledikten sonra çağırdığı dikkat edin.

Seçenek adı Açıklama Değer Aralığı Varsayılan Değer
objectDetectorLiveStreamDelegate Nesne Dedektörünün algılama sonuçlarını eşzamansız olarak almasını sağlar canlı yayın moduna girer. Örneği bu özelliğe ayarlanan sınıf, objectDetector(_:didFinishDetection:timestampInMilliseconds:error:). yöntemidir. Geçerli değil Ayarlanmadı

Verileri hazırlama

Önce giriş resmini veya çerçeveyi bir MPImage nesnesine dönüştürmeniz gerekiyor Nesne Dedektörü'ne iletmektir. MPImage, farklı iOS görsel türlerini destekler ve çıkarım için bunları herhangi bir çalışma modunda kullanabilir. Daha fazla MPImage hakkında bilgi için MPImage API

Kullanım alanınıza ve cihazınızın çalışma moduna göre bir iOS resim biçimi seçin. gerektirir.MPImage, UIImage, CVPixelBuffer ve CMSampleBuffer iOS resim biçimi.

UIImage

UIImage biçimi, aşağıdaki koşu modları için çok uygundur:

  • Resimler: uygulama paketi, kullanıcı galerisi veya dosya sisteminden şu şekilde biçimlendirilmiş resimler: UIImage resim, MPImage nesnesine dönüştürülebilir.

  • Videolar: AVAssetImageGenerator yöntemini kullanın ve CGImage daha sonra bunları UIImage resme dönüştürün.

Swift

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(uiImage: image)
    

Objective-C

// Load an image on the user's device as an iOS `UIImage` object.

// Convert the `UIImage` object to a MediaPipe's Image object having the default
// orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

Örnek, bir MPImage öğesini varsayılan olarak başlatır UIImage.Orientation.Up Yönü. MPImage işlemini, desteklenen herhangi bir UIImage.Orientation değerler. Nesne Dedektörü .upMirrored gibi yansıtılan yönleri desteklemez, .downMirrored, .leftMirrored, .rightMirrored.

UIImage hakkında daha fazla bilgi için UIImage Apple Developer uygulamasına bakın Dokümanlar.

CVPixelBuffer

CVPixelBuffer biçimi, çerçeve oluşturan uygulamalar için uygundur ve iOS CoreImage'i kullanmanız gerekir işleme çerçevesidir.

CVPixelBuffer biçimi, aşağıdaki koşu modları için çok uygundur:

  • Resimler: Biraz işlemden sonra CVPixelBuffer resim oluşturan uygulamalar Google'ın CoreImage çerçevesi kullanılarak Nesne Algılayıcı'ya gönderilerek resim çalıştırma moduna geçiyorum.

  • Videolar: Video kareleri, video kareleri için CVPixelBuffer biçimine dönüştürülebilir. ve ardından video modunda Nesne Dedektörü'ne gönderilir.

  • canlı yayın: Kare oluşturmak için iOS kamera kullanan uygulamalar dönüştürülebilir gönderilmeden önce işlenmek üzere CVPixelBuffer biçiminde Nesne Algılayıcı canlı yayın modunda.

Swift

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(pixelBuffer: pixelBuffer)
    

Objective-C

// Obtain a CVPixelBuffer.

// Convert the `CVPixelBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithUIImage:image error:nil];
    

CVPixelBuffer hakkında daha fazla bilgi için CVPixelBuffer Apple'a bakın Geliştirici Dokümanlar.

CMSampleBuffer

CMSampleBuffer biçimi, tek tip bir medya türünün medya örneklerini depolar ve için son derece uygun. iOS kameralardaki canlı kareler iOS tarafından CMSampleBuffer biçiminde eşzamansız olarak yayınlanır AVCaptureVideoDataOutput.

Swift

// Obtain a CMSampleBuffer.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the default
// orientation `UIImage.Orientation.up`.
let image = try MPImage(sampleBuffer: sampleBuffer)
    

Objective-C

// Obtain a `CMSampleBuffer`.

// Convert the `CMSampleBuffer` object to a MediaPipe's Image object having the
// default orientation `UIImageOrientationUp`.
MPImage *image = [[MPPImage alloc] initWithSampleBuffer:sampleBuffer error:nil];
    

CMSampleBuffer hakkında daha fazla bilgi için CMSampleBuffer Apple'a bakın Geliştirici Dokümanlar.

Görevi çalıştırma

Nesne Algılayıcı'yı çalıştırmak için atanan öğeye özel detect() yöntemini kullanın çalışma modu:

  • Hareketsiz resim: detect(image:)
  • Video: detect(videoFrame:timestampInMilliseconds:)
  • canlı yayın: detectAsync(image:)

Aşağıdaki kod örnekleri, şu farklı koşu modları var:

Swift

Resim

let objectDetector.detect(image:image)
    

Video

let objectDetector.detect(videoFrame:image)
    

canlı yayın

let objectDetector.detectAsync(image:image)
    

Objective-C

Resim

MPPObjectDetectorResult *result = [objectDetector detectInImage:image error:nil];
    

Video

MPPObjectDetectorResult *result = [objectDetector detectInVideoFrame:image          timestampInMilliseconds:timestamp error:nil];
    

canlı yayın

BOOL success = [objectDetector detectAsyncInImage:image
                          timestampInMilliseconds:timestamp
                                            error:nil];
    

Nesne Algılayıcı kodu örneğinde, bu modlardan her birinin uygulamaları gösterilmektedir. daha ayrıntılı olarak detect(image:), detect(videoFrame:) ve detectAsync(image:). Örnek kod, kullanıcının farklı işlem modları vardır.

Aşağıdakileri göz önünde bulundurun:

  • Video modunda veya canlı yayın modunda çalışırken ayrıca Nesne Algılayıcı görevine giriş çerçevesinin zaman damgası.

  • Görüntü veya video modunda çalışırken, Nesne Dedektörü görevi öğesini, giriş resmini veya çerçevesini işlemeyi bitirene kadar devam ettirir. Alıcı: mevcut iş parçacığını engellemekten kaçının, işlemeyi arka planda yürütün iOS kullanan iş parçacığı Sevkiyat veya NSOperation çerçeveleri.

  • Canlı yayın modunda çalışırken Nesne Algılayıcı görevi hemen geri dönüyor ve mevcut ileti dizisini engellemez. İçeriği objectDetector(_objectDetector:didFinishDetection:timestampInMilliseconds:error:). yöntemini kullanır. İlgili içeriği oluşturmak için kullanılan Nesne Algılayıcısı bu yöntemi özel bir seri üzerinde eşzamansız olarak çağırır sevk sırası oluşturun. Sonuçları kullanıcı arayüzünde görüntülemek için, ana sıraya eklenir. detectAsync işlevi, Nesne Algılayıcı görevi başka bir öğeyi işlemekle meşgulken çağrılır çerçeve içine aldığınızda, Nesne Algılayıcısı yeni giriş çerçevesini yoksayar.

Sonuçları işleme ve görüntüleme

Çıkarım çalıştırıldığında, Nesne Algılayıcı görevi bir ObjectDetectorResult döndürür. nesne olarak tanımlar.

Aşağıda, bu görevdeki çıkış verilerinin bir örneği gösterilmektedir:

ObjectDetectorResult:
 Detection #0:
  Box: (x: 355, y: 133, w: 190, h: 206)
  Categories:
   index       : 17
   score       : 0.73828
   class name  : dog
 Detection #1:
  Box: (x: 103, y: 15, w: 138, h: 369)
  Categories:
   index       : 17
   score       : 0.73047
   class name  : dog

Aşağıdaki resimde, görev çıkışının görselleştirmesi gösterilmektedir:

Nesne Algılayıcısı örnek kodu, algılama sonuçlarının nasıl görüntüleneceğini gösterir ayrıntılı bilgi için kod örneğine bakın.