동적 객체와 정적 객체에 있는 점들을 구분하는 것은 자율주행에서 SLAM, 네비게이션, 충돌 회피와 같은 작업에 필수적입니다. 라이다 빔을 통해 자유 공간을 확인하는 기존의 동적 객체 분할(MOS) 방법들은 빔의 입사 각도, 센서 포즈의 부정확성, 센서 움직임에 의한 점의 왜곡으로 인해 잘못된 예측이 발생하는 문제를 겪고 있습니다. 이러한 문제들을 해결하기 위해, 본 논문은 적응형 윈도우를 활용한 가시성 기반의 MOS와 라이다-관성 주행 거리 추정(LIO)을 수행하는 AWV-MOS-LIO 시스템을 제안합니다. AWV-MOS-LIO는 AWV-MOS와 AWV-LIO로 구성되어 있습니다. AWV-MOS는 점 대 창 비교와 객체 수준의 잘못된 예측 검사를 활용하여 입사 각도와 센서 포즈의 부정확성에 의해 발생하는 잘못된 예측 문제를 해소함으로써 MOS 성능을 향상시킵니다. 또한, AWV-MOS는 다양한 시야에서 자유 공간을 확인하기 위해 키 프레임을 활용합니다. AWV-LIO는 정적 스캔과 정적 가중치를 활용한 스캔-서브맵 매칭을 통해 포즈 모호성을 최소화하고, IMU 오도메트리를 사용하여 점의 왜곡을 수정합니다. 우리는 KITTI Raw 데이터셋에서 온라인 MOS 및 정적 지도 구축 성능을, 그리고 UrbanLoco 데이터셋에서 주행 거리 추정 성능을 평가합니다. 우리의 방법은 학습 기반 방법보다 6.7% 높은 온라인 MOS 성능(IoU), 가시성 기반 정적 지도 구축 방법보다 71.7% 높은 정적 지도 구축 성능(IoU), 기준 LIO 방법보다 14.4% 높은 오도메트리 추정 성능(ATE)을 달성합니다.