문제 설명
iOS의 주어진 이미지에서 다중 사용자 정의 개체 감지(이미지 처리) (Multiple Custom Object Detection (Image processing) from a given Image in iOS)
사용자 정의 개체가 프레임으로 감지되도록 하고 싶습니다.
나는 이것과 관련하여 확인했고 ARKit 구현으로 많은 것을 얻었습니다. 이를 사용하여 라이브 개체 감지(즉, 입력 스트림을 카메라 스트림으로 사용)를 얻을 수 있지만 제 요구 사항은 주어진/정적 이미지에서 가져오는 것입니다.
분류 또는 직사각형 또는 얼굴 감지 등을 제공하는 입력 스트림으로 카메라를 사용하여 최신 iOS 지침/샘플을 찾았습니다. .
내 문제는 사용자 정의 다중 개체가 있는 주어진 이미지에서 가져와야 한다는 것입니다.
예를 들어, 주어진 이미지에서 시계를 식별해야 합니다(다른 유형의 여러 시계가 있는 벽 이미지). 여기에서 샘플 시계 이미지를 제공할 수 있습니다. 따라서 프레임과 함께 식별된 시계를 가져와야 합니다.
객체 분류와 함께 Vision의 VNImageBasedRequest를 사용하여 확인했는데, 여기서 맞춤 훈련된 CoreML 모델로 분류를 얻을 수 있지만 boundingBox 속성을 사용하여 VNDetectedObjectObservation에서 사용할 수 있는 프레임을 가져옵니다.
귀중한 시간에 미리 감사드립니다 & 응답.
VNDetectedObjectObservation에서 사용할 수 있는 프레임을 가져오는 속성입니다.귀중한 시간을 할애해 주셔서 감사합니다. 응답.
VNDetectedObjectObservation에서 사용할 수 있는 프레임을 가져오는 속성입니다.귀중한 시간을 할애해 주셔서 감사합니다. 응답.
참조 솔루션
방법 1:
You can do it making use of Google Cloud AutoML Vision Object Detection. If you want to detect custom objects you need to create your own custom model dataset and train it. Once the model is trained either you can host it on cloud and make an API call from the iOS app to detect the objects from your static image(online) or you can add the trained model to your project to detect the objects from image(offline). You can find the complete documentation here https://cloud.google.com/vision/automl/object‑detection/docs/before‑you‑begin
If you are able to get it done in any other way please let me know how, even I'm working on similar use case.
(by Unnikrishnan、Mister Perfect)