- RW 중 YOLO의 동작 방식
YOLO (You Only Look Once)는 객체 탐지를 단일 신경망으로 수행하는 방법으로, 경계 상자와 클래스 확률을 동시에 예측합니다. 기존 기법들이 복잡한 파이프라인을 사용하거나 여러 단계를 거쳐 탐지를 수행하는 반면, YOLO는 전체 이미지를 단일 네트워크에서 처리해 객체 탐지 문제를 단순화했습니다. 입력 이미지를 S×S의 그리드로 나누고, 각 그리드 셀은 해당 영역에 객체가 있을 가능성과 경계 상자 정보를 동시에 예측하여 효율적인 탐지 성능을 제공합니다.
YOLO는 간단한 설계에도 불구하고 높은 정확성과 다양한 데이터셋에서의 일반화 성능으로 주목받아 왔습니다. 특히, YOLO의 경량화된 구조와 빠른 탐지 속도는 모델이 대규모 데이터셋에서도 효율적으로 작동할 수 있도록 합니다. 이를 통해 YOLO는 특정 객체를 빠르게 탐지하고, 후속 단계에서 필요한 영역만 집중적으로 처리할 수 있는 기반을 제공합니다.
본 연구에서는 YOLO의 최신 버전인 YOLOv8을 활용하여 MSCOCO 데이터셋에서 특정 클래스의 객체를 탐지하고 해당 객체에 대해 segmentation을 수행한 뒤, 모델의 후속 단계로 ROI(Region of Interest)를 전달하는 용도로 사용합니다. YOLO는 모델이 ROI를 정확히 검출할 수 있도록 하며, 복잡한 전처리 과정을 단순화해 효율적인 데이터 흐름을 보장합니다.
이와 같은 활용은 YOLO가 단순 객체 탐지뿐 아니라 특정 영역을 집중적으로 처리해야 하는 모델 설계에 적합한 도구임을 보여줍니다. YOLOv8의 빠른 ROI 검출 기능은 다양한 비전 작업에서 정교한 처리를 위한 전처리 단계로 활용될 수 있는 가능성을 제시합니다
- 연구 내용 중 YOLO를 이용한 ROI 검출
본 연구에서는 MSCOCO 데이터셋으로 사전 학습된 yolov8l-seg.pt 모델을 활용하여 이미지에서 ROI(Region of Interest)를 검출하였습니다. yolov8l-seg.pt는 객체 탐지와 세분화(segmentation)에 최적화된 모델로, 객체의 경계 상자와 분할 마스크를 함께 제공하여 정교한 ROI 데이터를 제공합니다. 이를 위해 UltraLytics 라이브러리를 사용하여 모델을 로드하고, 테스트 이미지에 대해 객체 탐지 및 세분화 예측을 수행하였습니다.
모델의 예측 결과는 이미지에서 검출된 객체의 클래스 정보와 분할 마스크를 포함하며, 각 클래스 ID는 MSCOCO 데이터셋의 클래스 이름으로 매핑되었습니다. 추출된 분할 마스크는 객체의 클래스 이름과 연계되어 딕셔너리 형태로 저장되며, 이를 통해 특정 클래스에 속하는 모든 객체의 ROI를 효율적으로 관리하고 활용할 수 있었습니다. 클래스별 마스크 데이터는 추가적인 분석과 처리를 용이하게 하는 기반 자료로 사용되었습니다.
이와 같은 YOLO 기반 ROI 검출 과정은 객체 탐지 및 세분화 결과를 효과적으로 활용하여 본 연구의 성능 평가와 데이터 분석에 기여하였습니다.
- 연구 내용 중 데이터셋 구성
MSCOCO 테스트 데이터셋에서 추출한 데이터를 기반으로 테스트를 구성하였습니다. 이는 사용한 YOLOv8l-seg.pt 모델이 MSCOCO 데이터셋으로 사전 학습되었기 때문에, 동일한 데이터 분포에서 테스트를 수행함으로써 환경의 일관성을 유지하고 성능을 신뢰성 있게 평가하기 위함입니다.
ROI(Region of Interest) 검출 과정에서는 과도한 객체 탐지를 방지하기 위해 COCO 데이터셋에서 다수의 객체가 포함된 이미지(예: 새 떼, 군중)를 제외하고, 적절한 객체 수를 가진 이미지만 선별하였습니다. 또한, 모델이 객체를 잘못 탐지하여 출력 레이블이 실제 레이블(Ground Truth)과 불일치하는 경우, 해당 이미지는 ROI 검출이 불가능해져 이미지 표현 성능이 저하될 수 있으므로 테스트 데이터셋에서 제외하였습니다.
본 연구에서는 정확한 ROI를 제공하여 객체 탐지 과정에서 통제된 환경을 조성하고, 잘못된 객체 탐지가 성능에 영향을 미치지 않도록 최적의 조건을 적용하여 테스트 환경을 구성하였습니다. 이러한 접근법은 제시된 기법들 간의 성능 차이를 평가하는 데 있어 정확성과 신뢰도를 높이는 데 기여합니다.