표제지
목차
국문 초록 9
ABSTRACT 10
I. 서론 11
II. 깊이 정보 추출 및 3차원 객체 식별 방법 13
1. 시스템 구성 13
2. 깊이 추측 신경망 14
A. 단안 카메라를 이용한 자기 지도 학습 16
B. Photometric Reconstruction Error 17
C. 변화 없는 픽셀 학습 제한 18
D. 학습을 위한 데이터 획득 방법 19
3. 3D Reconstruction 19
A. 3D Point Cloud 구성 19
4. 3차원 객체 식별 신경망 22
A. PointNet 22
III. 실험 23
1. 장비 23
A. LiDAR Sensor 23
B. 학습 환경 24
2. 학습 데이터 24
3. 깊이 추측 신경망 학습 25
4. 3D Reconstruction 26
5. 객체 식별 신경망 학습 28
IV. 결론 및 향후 연구 30
References 31
표 1. train, validation, test 정확도와 손실률 26
표 2. train, validation 정확도와 손실률 29
그림 1. 전체 시스템 구조도 13
그림 2. U-Net 구조 14
그림 3. 단안 카메라 기반 자기 지도 학습 흐름 구조도 16
그림 4. Depth와 Disparity의 기하학적 관계 20
그림 5. 원본 영상과 이를 이용해 구성한 3차원 Point Cloud의 예 21
그림 6. PointNet 신경망 22
그림 7. 촬영 장비 23
그림 8. 촬영 데이터의 예 24
그림 9. 학습 데이터의 일부 (좌: It의 예, 우: It'의 예)[이미지참조] 25
그림 10. 좌: train 정확도 그래프, 우: 손실률 그래프[그림없음] 26
그림 11. 좌: validation 정확도 그래프, 우: 손실률 그래프[그림없음] 26
그림 12. 잘 추측된 Point Cloud 27
그림 13. 잘 추측되지 않은 Point Cloud 27
그림 14. 좌: train 정확도 그래프, 우: 손실률 그래프 28
그림 15. 좌: validation 정확도 그래프, 우: 손실률 그래프 29
그림 16. 원본 영상과 실험 결과 (좌: 실제 데이터, 우: 예측 데이터) 29