본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

표제지

목차

요약 10

ABSTRACT 11

1. 서론 13

2. 관련연구 15

2.1. Time Series Classification 15

2.2. Transformer-based Language Model 16

3. 배경이론 17

3.1. Imaging of time series 17

3.2. Transformer 18

3.3. Self-supervised learning 21

4. 데이터 셋 및 모델 24

4.1. Univariate Time Series dataset 24

4.2. Embedding Method 26

4.3. Pre-training Method 30

4.4. Fine-tuning Method 31

5. 실험 결과 33

5.1. 실험 환경 및 방법 33

5.2. 성능 비교 35

5.3. Ablation Study 36

5.3.1. Pre-training 유/무에 따른 성능 비교 36

5.3.2. 입력 데이터의 scaling에 따른 성능 비교 37

5.3.3. Time window의 embedding 방법에 따른 성능 비교 39

5.3.4. Pooling 방법에 따른 성능 비교 40

5.3.5. CLS 토큰 생성 방식에 따른 성능 비교 41

5.3.6. Attention Map visualization 및 분석 42

5.3.7. 제안 모델의 Robustness 분석 57

6. 결론 및 향후 계획 61

7. 참고문헌 62

표목차

표 1. UCR 데이터들의 속성 24

표 2. 실험 환경 33

표 3. 제안하는 모델의 Hyper-parameters 34

표 4. 모델 간의 성능 비교 35

표 5. Pretraining 유/무에 따른 성능 비교 37

표 6. 입력 데이터의 scaling에 따른 성능 비교 39

표 7. Time window Embedding 방식에 따른 성능 비교 40

표 8. Pooling 방법에 따른 성능 비교 41

표 9. CLS token 방식에 따른 성능 비교 42

그림목차

그림 1. (a)는 gun point 데이터에서 하나의 데이터를 plotting한 결과. (b)는 (a)의 데이터를 Recurrence plot을 이용하여 이미지화한 결과. 17

그림 2. (a)는 gun point 데이터에서 하나의 데이터를 plotting한 결과. (b)는 GASF 수식을 이용한 결과. (c) GADF 수식을 이용한 결과. 18

그림 3. Transformer 모델 구조 19

그림 4. Positional encoding 값의 Euclidean distance map 20

그림 5. Self-Attention Mechanism 21

그림 6. Pretext task 22

그림 7. Contrastive learning 22

그림 8. Time window 계산 방식 27

그림 9. Time window Embedding 27

그림 10. Layer Normalization에 따른 입력 데이터 분포 29

그림 11. Pre-training 모델 30

그림 12. Fine-tuning 모델 31

그림 13. 평균 Ranking 비교 36

그림 14. Scaler에 따른 데이터 변환 38

그림 15. CLS 토큰 사용 안했을 시 layer1(데이터1) 44

그림 16. CLS 토큰 사용 안했을 시 layer2(데이터1) 45

그림 17. CLS 토큰 MLP로 사용 layer1(데이터1) 46

그림 18. CLS 토큰 MLP로 사용 layer2(데이터1) 47

그림 19. CLS 토큰 Random으로 사용 layer1(데이터1) 48

그림 20. CLS 토큰 Random으로 사용 layer2(데이터1) 49

그림 21. CLS 토큰 Random으로 사용 layer1(데이터2) 50

그림 22. CLS 토큰 Random으로 사용 layer2(데이터2) 51

그림 23. 그림 15-22까지의 attention을 실제 데이터에 강조 표시한 결과 52

그림 24. CLS 토큰 ResNet으로 사용 layer1(데이터1) 54

그림 25. CLS 토큰 ResNet으로 사용 layer2(데이터1) 55

그림 26. Head별 CLS→CLS, Others→CLS Attention의 평균값 56

그림 27. DiatomSizeReduction 데이터 57

그림 28. LargeKitchenAppliances 데이터 58

그림 29. Cricket_Y 데이터 59

그림 30. InsectWingbeatSound 데이터 59

초록보기

시계열 데이터란 일정한 시간 동안 수집된 일련의 순차적으로 정해진 데이터셋의 집합을 의미하며 예측, 분류, 이상치 탐지 등에 활용되고 있다. 기존의 시계열 분야의 인공지능 모델에는 RNN(Recurrent Neural Network)을 주로 활용하여 분석을 진행했지만, 최근 Transformer 모델의 개발로 인하여 연구 추세가 변화하고 있다. Transformer 모델은 시계열 데이터 예측에는 좋은 성능을 보이지만, 분류 쪽에서는 상대적으로 부족한 성능을 보인다. 본 논문에서는 시계열 분류를 위한 Transformer 모델에 CLS 토큰을 추가하여 성능 향상에 초점을 맞추었다. 본 논문에서 제안하는 방식은 1) 입력 데이터의 임베딩 방법, 2) 사전 학습 방법이다. 1) 입력 데이터의 임베딩 방법은 총 2가지 방법을 이용한다. 첫 번째는 입력 데이터를 standard scaler를 활용하여 각기 다른 진폭을 가지는 시계열 데이터들을 정규화하여 진폭을 균일하게 만들고 time window 방식으로 데이터의 차원을 변경한 뒤 GRU(Gated Recurrent Unit)를 통하여 Transformer에 입력 토큰으로 활용한다. 두 번째는 GASF(Gramian Angular Summation Field)를 활용하여 입력 데이터를 이미지로 만든 뒤 사전 학습된 컴퓨터 비전 모델을 활용하여 얻어낸 벡터를 Transformer의 CLS 토큰 입력으로 활용한다.

사전 학습 방식은 자연어 분야에서 사용하는 MLM(Masked Language Modeling)과 유사한 방식을 활용한다. 시계열 데이터는 자연어와 다르게 연속 변수로 이루어져 있어서 목적함수 계산 시 MSE(Mean Squared Error)를 활용한다. 입력 토큰의 마스킹 작업 시에 CLS 토큰은 제외하고 나머지 입력 토큰 중 30%를 마스킹하고 마스킹 된 값을 출력단에서 맞추는 형식으로 학습된다. 본 논문에서는 UCR 데이터 셋을 활용하여 총 12개의 서로 다른 모델들과 제안하는 모델의 성능을 비교한다. 제안하는 모델은 85개의 데이터에 대한 평균 정확도 평가에서 최소 1.4% 최대 21.1%까지 성능 향상을 보였다.