전 세계적으로 드론 기술의 상업적 보급과 취미용 드론의 사회적 확산 환경에 따라 드론 이용자가 빠르게 증가하면서 드론의 부정적 사용 사례 또한 증가하고 있다. 카메라를 통한 사생활 침해, 사유지 불법 침입, 드론 추락으로 인한 피해 등이 발생하기 시작했으며 미승인 드론의 공항 관제권 내 비행 금지구역을 무단침입하는 사례가 빈발하고 있다. 또한 최근 2차원 교통수단에서 벗어나 도시의 교통문제를 해결할 수 있는 3차원 운송수단으로 주목받는 도심항공 모빌리티(Urban Air Mobility, UAM) 및 도심 내 거점 공항인 버티포트(Vertiport) 교통시스템의 개발에 따라 안전 회랑 내 드론 침입에 대한 우려 발생 및 불법 드론에 대한 국가 중요시설, 민간에 대한 피해 확산 방지는 더욱 중요해지고 있다. 본 연구에서는 인공지능 학습기반 영상 내 미소상태의 드론 추론성능을 향상을 위해 드론 및 항체 데이터셋을 개발하고 수집한 영상 데이터셋에 고전영상처리 기법을 적용한 영상 특징량 변형 후 인공지능 학습을 수행하였다.
비행 실험을 통해 수집한 원시데이터를 인공지능 학습용 데이터셋으로 구축하기 위해 PyQt5를 이용해 사용자인터페이스(GUI) 기반 종합 기능 도구를 개발하여 데이터셋 생성, 관리, 증강에 활용했다. 생성한 데이터셋은 비행 실험에서 얻어진 항체 대상 상대 거리 10 ~ 400미터(Meter)의 영상 31,571건이다. 이때, 영상 내 5x5 픽셀로 존재하는 미소 상태의 드론은 RGB 영상에서 배경과 명확히 구분되지 않아 객체를 식별하기 어려운 상태이므로 고전영상처리 기법을 활용한 특징량 변환을 수행하였다. 이때, 활용한 기법은 HOG(Histogram of oriented gradients)와 LBP(Local binary pattern)이다.
위 수행결과를 토대로 만들어진 데이터셋을 각 특징변환기법으로 증강한 4개의 그룹으로 나누었으며 YoloV5s 모델을 활용하여 학습된 가중치에 대한 정량적·정성적 추론성능에 대한 분석을 수행하였다.
추론성능 입증을 위해 입력한 영상의 전체 프레임에서 미소 상태의 드론을 탐지한 프레임 수의 정량적 비교분석을 통해 RGB 영상을 이용한 학습 추론성능대비 고전영상처리 기반의 특징변환을 적용한 데이터셋의 학습 추론성능이 월등히 향상됨을 확인하였다.
이를 통해 YoloV5모델에 대해 학습한 가중치의 추론성능의 경우 학습알고리즘 개선방식이 아닌 학습데이터를 정량적·정성적인 방법으로 증강함으로써 미소객체 추론성능향상을 입증함에 따라 실제 드론 검출 모델 및 영상기반 유도제어를 위한 선행연구결과로 활용될 수 있을 것으로 판단한다.