[표지]
제출문
보고서 요약서
요약문
SUMMARY
Contents
목차
제1장 연구개발과제의 개요 22
제1절 연구개발 배경 및 필요성 22
1. 연구개발 배경 22
2. 연구개발 필요성 24
제2절 연구개발 목표 및 내용 25
1. 연구개발의 최종목표 25
2. 연구목표 및 내용 25
제2장 국내외 기술개발 현황 30
제1절 자율주행 안전을 위한 인지기술 동향 30
1. 딥러닝 기반 객체 인식 기술 발전 동향 31
2. 딥러닝 기반 객체 검출 기술 발전 동향 38
3. 보행자 검출 알고리즘 41
4. 교통 표지판 판별 알고리즘 66
5. 미니트램과 자율주행자동차와의 비교 76
제2절 실시간 주행시스템 상태진단기술 동향 77
1. 결함의 검지방법 용어의 정의 77
2. 결함의 형태 77
3. 결함의 검출 77
제3장 연구개발 수행 내용 및 결과 82
제1절 미니트램 자율주행 주변상황 인식기술 개발 82
1. 영상정보를 통한 주행환경 인식 기법 82
2. LiDAR를 통한 장애물 인식 기법 86
3. 영상 및 LiDAR 인식 결과 통합 87
4. 보행자 검출 프로그램 88
제2절 다중센서기반 주행상황 인식장치 개발 93
1. 자율주행 시스템 구성도 93
2. 차량 장착장비 95
3. 차상제어 로직 확장 및 수정 103
4. 차량 위치 추정 및 제어 시스템 개발 114
제3절 실시간 주행시스템 상태진단기술 개발 119
1. 주행시스템 상태진단기술 119
2. 미니트램 고장진단 및 신호의 복원 122
3. 센서결함의 모의 신호의 복원 시험 128
제4장 목표 달성도 및 관련분야에의 기여도 146
제1절 목표 달성도 146
제2절 기대 성과 146
1. 기술적 측면 146
2. 경제·산업적 측면 146
제5장 연구개발 결과의 활용 계획 150
참고문헌 153
판권기 156
표 1-1-1. 연구개발 목표 및 내용 26
표 2-1-1. 보행자 검출 알고리즘 종류 42
표 2-1-2. 보행자 검출기술 분류 43
표 2-1-3. 분류, 회기, 군집, 밀도추정 알고리즘 58
표 2-1-4. 교통 표지판 영역 검출을 위한 임계값 설정 70
표 2-1-5. 미니트램과 자율주행자동차와의 비교 76
표 3-2-1. 장착장비 전원 연결 구성 96
표 3-2-2. 분석/제어 컴퓨터와 미니트램 NCU간의 Ethernet 통신 프로토콜 정의 115
그림 1-1-1. 지속가능한 교통 수단 22
그림 2-1-1. LeNet-5 아키텍처 31
그림 2-1-2. AlexNet 아키텍처 32
그림 2-1-3. Dropout의 특징 33
그림 2-1-4. VGGNet 및 AlexNet 아키텍처 비교 34
그림 2-1-5. GoogLeNet의 Inception 모듈 36
그림 2-1-6. GoogLeNet 아키텍처 36
그림 2-1-7. ResNet의 identity shortcut 구조 37
그림 2-1-8. ResNet과 Plain 네트워크와의 비교 37
그림 2-1-9. 보행자 검출 순서도 41
그림 2-1-10. 적분이미지(Integral Image)영상 처리 방법 45
그림 2-1-11. 분류 학습을 위한 "AdaBoost" 알고리즘 46
그림 2-1-12. 탐지 캐스케이드의 개략도 47
그림 2-1-13. HOG 특징 벡터 48
그림 2-1-14. HOG 셀 그룹 48
그림 2-1-15. HOG 특징 벡터 + SVM 보행자 탐지 결과 48
그림 2-1-16. HOG 기반 보행자 검출 순서도 49
그림 2-1-17. HOG 검출기의 윤곽과 엣지 방향 49
그림 2-1-18. HOG Cascade 훈련 알고리즘 51
그림 2-1-19. 선택한 블록의 시각화 52
그림 2-1-20. ChnFtrs(Integral channel features)의 처리 프로세스 52
그림 2-1-21. 부분 검출 후 조합된 사람, 병, 고양이, 차 54
그림 2-1-22. 이미지 피라미드 구성 모델 55
그림 2-1-23. 합 = 선분 + 선분 왜곡 57
그림 2-1-24. MLP구조와 대응되는 CNN구조 58
그림 2-1-25. MLP의 Fully connected 구조 59
그림 2-1-26. CNN의 핵심 구조 59
그림 2-1-27. 컨볼루션 연산을 통한 locality 특징 60
그림 2-1-28. CNN의 shared weight 특징 60
그림 2-1-29. Convolution층과 subsampling층으로 구성된 CNN 구조 61
그림 2-1-30. CNN 특징 추출 과정 62
그림 2-1-31. RNN의 매 순간 쌓아 올린 Neural data 63
그림 2-1-32. 초평면 2차원 선의 도식과 3차원 평면 도식 64
그림 2-1-33. 객체 특성에 따라 군집 선분 된 초평면 2차원 도식 65
그림 2-1-34. 센서 종류별 인식 가능 거리 66
그림 2-1-35. 교통 표지판 일람표 67
그림 2-1-36. 표지판 판별 알고리즘 68
그림 2-1-37. 교통 표지판 후보영역 추출 알고리즘 68
그림 2-1-38. 다양한 표지판의 색상과 형태 69
그림 2-1-39. 특징맵에 대한 교통 표지판 후보 영역 ROI 설정 71
그림 2-1-40. SCB 알고리즘 동작 방법 72
그림 2-1-41. 교통표지판 검증 알고리즘 72
그림 2-1-42. HOG 특징 추출 방법 73
그림 2-1-43. SVM 분류기 요소 74
그림 2-1-44. SVM 분류기 성능 비교 75
그림 2-2-1. 결함의 고장 또는 오기능의 전개 77
그림 3-1-1. 전방 및 후방의 센서 설치 82
그림 3-1-2. NVIDIA Drive PX2 83
그림 3-1-3. Drive PX2 개발환경 설치 83
그림 3-1-4. Drive PX2 interface 지원 84
그림 3-1-5. GMSL 카메라 84
그림 3-1-6. 인식에 사용된 딥러닝 네트워크(MobileNet) 85
그림 3-1-7. 학습을 위한 데이터 셋 85
그림 3-1-8. MobileNet 학습 및 그 결과 86
그림 3-1-9. Velodyne Puck Spec 86
그림 3-1-10. 라이다 측위 정보 86
그림 3-1-11. 전방 라이다의 장애물맵(obstacle map)및 라이다 측위 정보 87
그림 3-1-12. 후방 라이다의 장애물맵(obstacle map)및 라이다 측위 정보 87
그림 3-1-13. 딥러닝을 이용한 검출 결과 좌측-최대거리, 우측-최소거리 87
그림 3-1-14. LiDAR를 이용한 전방 장애물 검출 결과 88
그림 3-1-15. HOG(INRIA)보행자 검출 함수 89
그림 3-1-16. HOG(INRIA)보행자 검출 화면 89
그림 3-1-17. HOG(Daimler)보행자 검출 함수 90
그림 3-1-18. HOG(Daimler)보행자 검출 화면 90
그림 3-1-19. HOG cascades 보행자 검출 함수 91
그림 3-1-20. HOG cascades 보행자 검출 화면 91
그림 3-1-21. Haar cascades 보행자 검출 함수 92
그림 3-1-22. Haar cascades 보행자 검출 화면 92
그림 3-2-1. 자율주행 구성도 93
그림 3-2-2. 미니트램의 센서 장착 상태 93
그림 3-2-3. 미니트램 제어를 위한 시스템 구성 94
그림 3-2-4. 카메라 외형 95
그림 3-2-5. Velodyne Lidar 외형 95
그림 3-2-6. DrivePX2 외형 96
그림 3-2-7. 브라켓 2D 설계 97
그림 3-2-8. 브라켓 3D 설계 97
그림 3-2-9. 취부형상(전면) 98
그림 3-2-10. 취부형상(측면) 98
그림 3-2-11. 카메라 시야각도 및 라이다 감지각도 98
그림 3-2-12. 브라켓 장착 99
그림 3-2-13. Velodyne Lidar 장착 99
그림 3-2-14. 카메라 장착 100
그림 3-2-15. Velodyne Lidar 전원 연결 100
그림 3-2-16. Velodyne Lidar 스위치 적용 101
그림 3-2-17. DrivePX2 전원 및 카메라 연결 101
그림 3-2-18. Velodyne Lidar 구동 화면 102
그림 3-2-19. 카메라 구동 화면 102
그림 3-2-20. 미니트램 자율주행을 위한 분석/제어 컴퓨터의 메인 프로그램 114
그림 3-2-21. 미니트램 메인 프로그램중 센서 데이터 취득 부분 115
그림 3-2-22. 센서 정보와 GPS를 결합한 Localization 필터 구성도 116
그림 3-2-23. 좌표 및 추종 개념 116
그림 3-2-24. 철도기술연구원 내 미니트램 주행 경로 117
그림 3-2-25. 25m 직선구간 위치 데이터(좌)와 way-point와 lateral방향 오차(우) 118
그림 3-2-26. 50m 직선구간 위치 데이터(좌)와 way-point와 lateral방향 오차(우) 118
그림 3-3-1. 측정된 각 바퀴속도 120
그림 3-3-2. 각 바퀴속도에 의해 추정된 중심축 속도 120
그림 3-3-3. 미니트램 센서결함진단 및 복원 흐름도 121
그림 3-3-4. 미니트램 센서 배치 122
그림 3-3-5. 차량 기하구조 123
그림 3-3-6. 시험주행노선 연장 235 129
그림 3-3-7. 조향각 센서를 사용한 경우의 차량 중심축 속도 130
그림 3-3-8. 자이로 센서를 사용한 경우의 차량 중심축 속도 130
그림 3-3-9. 각 중심축 속도 131
그림 3-3-10. 자이로 결함시 각 중심축 속도 132
그림 3-3-11. 자이로 정상시 각 중심축 속도 132
그림 3-3-12. 자이로 결함시 조향각을 이용한 중심축 속도 133
그림 3-3-13. 자이로 결함시 중심축 속도 133
그림 3-3-14. 후륜 우측 속도결함 및 신호복원 134
그림 3-3-15. 조향각 결함 및 신호복원 134
그림 3-3-16. 자이로 결함 및 신호복원 135
그림 3-3-17. 앞륜 우측속도 결함 및 신호복원 136
그림 3-3-18. 후륜 좌측속도 결함 및 신호복원 136
그림 3-3-19. 조향각 결함 및 신호복원 137
그림 3-3-20. 후륜 좌측속도 결함 및 신호복원 137
그림 3-3-21. 후륜 좌측속도결함 및 신호복원 138
그림 3-3-22. 자이로스코프 결함 및 신호복원 138
그림 3-3-23. 속도센서 결함 및 주행궤적이탈 139
그림 3-3-24. 주행경로 이탈오차 140
그림 3-3-25. 자이로센서 결함 및 주행경로 이탈 140
그림 3-3-26. 주행경로 이탈오차 141
그림 3-3-27. 주행궤적 141
그림 3-3-28. 주행경로 오차 142
그림 3-3-29. 주행경로 오차 142
그림 3-3-30. 주행경로 오차 143
그림 5-1. 인천국제공항 적용지역 검토(안)– 제2터미널 150
그림 5-2. 의왕 왕송호수지역 미니트램 노선검토(안) 151
그림 5-3. 여수 오동도 방파제 구간, 울산 짚라인 남산구간 노선검토(안) 151