표제지
목차
국문초록 8
제1장 서론 9
제1절 연구의 필요성 9
제2절 논문 구성 11
제2장 기술 배경 12
제1절 네트워크 패킷 탐지 기술 12
1. 기존 패킷 탐지 방법 13
2. 머신러닝 기반의 패킷 탐지 방법 14
제2절 Multi-access Edge Computing 16
제3절 MEC 보안 18
제3장 AI 알고리즘 기법 19
제1절 Support Vector Machine 19
제2절 Deep Q Network 22
제4장 실험 구현 및 결과 28
제1절 시스템 구현 환경 28
제2절 NSL-KDD 데이터 셋 32
제3절 AI 알고리즘 기반 네트워크 시스템 34
1. SVM 기반 시스템 35
2. DQN 기반 시스템 37
3. 결과 비교 43
제5장 결론 44
참고문헌 45
ABSTRACT 47
〈표 2-1〉 패킷 탐지 기법 14
〈표 2-2〉 AI Algorithm 15
〈표 3-1〉 DQN Algorithm 24
〈표 4-1〉 MEC Environment Pseudocode 31
〈표 4-2〉 Details of Datasets 34
〈표 4-3〉 SVM 결과값 37
〈표 4-4〉 NSL KDD 기반 Deep Q-learning 훈련 알고리즘 38
〈표 4-5〉 DQL 에이전트 및 뉴럴 네트워크 파라미터 38
〈그림 2-1〉 Intrusion Detection System 예시 12
〈그림 2-2〉 MEC Structure 17
〈그림 3-1〉 SVM margin 20
〈그림 3-2〉 다항 커널, 시그모이드 커널 사용 예시 21
〈그림 3-3〉 강화학습 구조 22
〈그림 3-4〉 Q-Learning 알고리즘 22
〈그림 3-5〉 정책 반복과정 23
〈그림 3-6〉 Q-Learning과 DQN 비교 25
〈그림 3-7〉 Experience Replay 방식 25
〈그림 3-8〉 Target network 구조 26
〈그림 4-1〉 Mininet 시뮬레이션 예시 28
〈그림 4-2〉 Mininet, Ryu controller, OpenvSwitch 29
〈그림 4-3〉 MEC Network Topology 30
〈그림 4-4〉 NSL-KDD dataset distribution 34
〈그림 4-5〉 SVM 기반 시스템 진행 과정 35
〈그림 4-6〉 SVM을 활용한 트래픽 분류기 생성 과정 36
〈그림 4-7〉 DQN 기반 시스템 진행 과정 37
〈그림 4-8〉 DQL agent training 과정 40
〈그림 4-9〉 감가율(γ)에 따른 DQN 학습 과정의 손실 및 보상 값 42
〈그림 4-10〉 Episode 400 기준 결과값 42
〈그림 4-11〉 Episode 별 정확도 43