표제지
목차
ABSTRACT 11
제1장 서론 13
제1절 연구 배경 13
1. 도심항공교통 (UAM, Urban Air Mobility) 13
2. 도심항공교통관리 (UATM, Urban Air Traffic Management) 14
3. 도심항공교통 핵심 기술 16
제2절 기존 유사연구 분석 17
1. 운용 위험도 평가 17
2. 실시간 임무 재 계획 18
3. 임무 관리 시스템 19
4. 기존 유사연구의 한계 20
제3절 연구 목표 21
제2장 실시간 UAM 임무관리 시스템 프레임워크 23
제1절 UAM 운용자를 위한 UAM 임무관리 프로세스 23
제2절 UAM 운용자를 위한 UAM 임무관리 시스템 프레임워크 26
1. Risk Assessment 26
2. Mission Generation 26
3. Mission Selection 26
4. Mission Allocation 27
5. Decision Making 27
6. Plan Selection 27
7. Mission Analysis 27
8. Mission Suggestion 28
제3장 UAM 운용 위험도 평가 30
제1절 이론적 배경 30
1. SORA 방법론 30
2. 임무 운용 위험요인 37
제2절 UAM 운용 위험도 평가 프로세스 39
제3절 UAM 운용 경로의 지상 및 공중 위험도 평가 41
1. UAM 지상 위험도 평가 41
2. UAM 공중 위험도 평가 44
제4절 위험도 완화 방안 45
제5절 UAM 임무 운용 위험도 평가 46
제6절 김포-잠실 구간 UAM 운용 위험도 평가 분석 47
제4장 UAM 임무 라이브러리 52
제1절 UAM 임무 설계 52
1. UAM 임무 영역 분석 52
2. UAM 임무 설계 54
제2절 UAM 임무 라이브러리 구축 60
1. UAM 임무 라이브러리 구축과정 60
2. UAM 임무 라이브러리 구축을 위한 추가 데이터 62
3. UAM 임무 라이브러리 구축결과 63
제5장 강화학습 기반 실시간 UAM 임무 재계획 65
제1절 이론적 배경 65
1. 강화학습 개념 65
2. 강화학습 대표 알고리즘 68
제2절 강화학습 기반 실시간 임무 재계획 프로세스 75
제3절 강화학습 기반 실시간 임무 재계획 구현 77
1. 강화학습 에이전트 학습 환경 77
2. 강화학습 에이전트 학습 80
제4절 운용 위험도를 고려한 실시간 UAM 임무 재계획 Case Study 92
가. Case Study 시나리오 92
나. 결과 분석 93
제6장 결론 95
제1절 결론 95
제2절 향후계획 96
1. 임무 선택 및 할당 모듈 통합 96
2. UAM 운용 디지털 트윈 시스템과의 통합 96
참고문헌 97
국문초록 101
〈표 1〉 운용개념서 별 임무 운용 위험 요인 분석 38
〈표 2〉 지형별 Shelter Factor 43
〈표 3〉 TLOF/FATO 직경규정 45
〈표 4〉 임무 운용 위험 요인에 따른 위험도 46
〈표 5〉 건국대학교 항공우주 설계·인증연구소 4인승 eVTOL 기체 제원 48
〈표 6〉 UAM 정상 운용 상태와 비정상 운용 상태 59
〈표 7〉 강화학습 에이전트 보상 78
〈표 8〉 Q-Learning 테스트 결과 (1) 81
〈표 9〉 Q-Learning 테스트 결과 (2) 81
〈표 10〉 DQN 학습 파라미터 (1) 82
〈표 11〉 DQN 테스트 결과 (1) 84
〈표 12〉 DQN 학습 파라미터 (2) 84
〈표 13〉 DQN 테스트 결과 (2) 85
〈표 14〉 PPO 학습 파라미터 86
〈표 15〉 PPO 테스트 결과 87
〈표 16〉 PPO + Actor-Critic 학습 파라미터 88
〈표 17〉 수정된 보상 조건 및 값 89
〈표 18〉 PPO + Actor-Critic 테스트 결과 90
〈표 19〉 시나리오 1 Test 결과 94
〈표 20〉 시나리오 2 Test 결과 94
〈그림 1〉 UAM 연구 동향, FAA ConOps(좌1), K-UAM 운용개념서(좌2), Joby Aviation S4(우1), Volocopter(우2) 13
〈그림 2〉 K-UAM 교통체계 구조 14
〈그림 3〉 한국형 도심항공교통 기술로드맵 16
〈그림 4〉 SORA Semantic Model 18
〈그림 5〉 UTM 위험도 평가 프레임워크 아키텍처 18
〈그림 6〉 혼합정수계획법을 활용한 계획 시스템 예시 19
〈그림 7〉 전략적/전술적 계획 흐름도 20
〈그림 8〉 UAM 산업 전망 22
〈그림 9〉 에어택시를 이용하지 않는 이유 22
〈그림 10〉 UAM 운용자를 위한 실시간 UAM 임무관리 프로세스 25
〈그림 11〉 UAM 운용자를 위한 실시간 UAM 임무관리 프레임워크 29
〈그림 12〉 SORA 프로세스 32
〈그림 13〉 내재된 지상 위험 등급 정의 33
〈그림 14〉 최종 지상 위험 등급 결정을 위한 완화 방안 34
〈그림 15〉 공중 위험 등급 결정 프로세스 35
〈그림 16〉 SAIL 정의 36
〈그림 17〉 UAM 운용 위험도 평가 프로세스 39
〈그림 18〉 AC23.1309-1E, Relationship Among Airplane Classes, Probabilities, Severity of Failure Conditions and Software & Complex Hardware 42
〈그림 19〉 김포-잠실 구간 평가 대상 회랑 47
〈그림 20〉 KADA의 4인승 eVTOL PAV 기체 48
〈그림 21〉 UAM 미션 프로파일 48
〈그림 22〉 서울시 행정동 별 인구 데이터 48
〈그림 23〉 서울지방항공청 관할 헬기장 현황(일부) 49
〈그림 24〉 위험도 완화방안을 고려하지 않은 한강 회랑 운용 위험도 평가 결과 50
〈그림 25〉 위험도 완화방안을 고려한 한강 회랑 운용 위험도 평가 결과 50
〈그림 26〉 위험도 완화방안을 고려하지 않은 서울 남부 회랑 운용 위험도 평가 결과 51
〈그림 27〉 위험도 완화 방안을 고려한 서울 남부 회랑 운용 위험도 평가 결과 51
〈그림 28〉 UAM 활용 분야 별 사회적 위험과 편익 52
〈그림 29〉 상업적 용도의 승객 운송 사례 53
〈그림 30〉 응급서비스 운용 사례 54
〈그림 31〉 도심 내 교통수단 용도의 UAM 미션 프로파일 55
〈그림 32〉 공항 셔틀 용도의 UAM 미션 프로파일 56
〈그림 33〉 수도권 UAM 회랑 안 57
〈그림 34〉 연구 목적으로 추가한 UAM 회랑 57
〈그림 35〉 UAM 임무 라이브러리 구축과정 61
〈그림 36〉 임무 생성 모듈 학습 과정 62
〈그림 37〉 대체 착륙지 및 착륙 가능한 병원 목록(일부) 62
〈그림 38〉 수도권 대체 착륙지 및 착륙 가능한 병원 63
〈그림 39〉 UAM 임무 라이브러리 내 임무 저장 형식 64
〈그림 40〉 강화학습 내 에이전트와 환경의 상호작용 67
〈그림 41〉 가치 이터레이션 흐름도 68
〈그림 42〉 정책 이터레이션 흐름도 68
〈그림 43〉 강화학습 알고리즘 분류 69
〈그림 44〉 Q-Learning 알고리즘 학습 과정 70
〈그림 45〉 DQN 구조 71
〈그림 46〉 Actor-Critic 강화학습 구조 73
〈그림 47〉 PPO 클리핑 75
〈그림 48〉 강화학습 기반 실시간 UAM 임무 재계획 프로세스 76
〈그림 49〉 운용 위험도 정보를 포함한 강화학습 학습 환경 78
〈그림 50〉 강화학습 에이전트 학습 환경 79
〈그림 51〉 OpenAI Gym 환경 80
〈그림 52〉 Q-Learning 학습 결과 (1) 81
〈그림 53〉 Q-Learning 학습 결과 (2) 81
〈그림 54〉 DQN 학습 결과 (1)-평균 에피소드 길이, 보상 83
〈그림 55〉 DQN 학습 결과 (1) - Loss 84
〈그림 56〉 DQN 학습 결과(2) - 평균 에피소드 길이, 보상 85
〈그림 57〉 DQN 학습 결과 (2) - Loss 85
〈그림 58〉 PPO 학습 결과 - 평균 에피소드 길이, 보상 86
〈그림 59〉 PPO 학습 결과-Entropy Loss 87
〈그림 60〉 PPO 학습 결과-Value Loss 87
〈그림 61〉 PPO 학습 결과 – Policy Gradient Loss 87
〈그림 62〉 PPO 학습 결과 - Loss 87
〈그림 63〉 PPO+Actor-Critic 학습결과 - 평균 에피소드 길이, 보상 89
〈그림 64〉 PPO+Actor-Critic 학습 결과 - Entropy Loss 90
〈그림 65〉 PPO+Actor-Critic 학습 결과 –Value Loss 90
〈그림 66〉 PPO+Actor-Critic 학습 결과 - Policy Gradient Loss 90
〈그림 67〉 PPO+Actor-Critic 학습 결과 - Loss 90