본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

표제지

목차

국문요약 8

제1장 서론 9

제2장 관련 연구 15

2.1. Transformer 15

2.2. BERT 22

2.3. GAN 29

2.4. 데이터 증강 기법 34

2.5. 감성분석 35

제3장 학습 데이터 구축 38

제4장 실험 및 결과 41

4.1. 실험환경 41

4.2. 실험 기법 41

4.3. 실험결과 43

제5장 결론 46

5.1. 결론 및 시사점 46

5.2. 향후 계획 47

참고 문헌 48

Abstract 52

표목차

표 1. EDA(Easy Data Augmentaion) 후 감성 분석 결과 43

표 2. VQ-GAN을 통한 데이터 증강 후 감성 분석 결과 45

그림목차

그림 1. 인공 신경망의 구조 9

그림 2. 트랜스 포머의 인코더-디코더 아키텍처 15

그림 3. 인코더 층을 확대한 그림 17

그림 4. BERT모델의 인코더 층과 어텐션 헤드의 시각화 19

그림 5. 멀티 헤드 어텐션 19

그림 6. 첫번째 문장의 어텐션 시각화 20

그림 7. 두번째 문장의 어텐션 시각화 20

그림 8. 사전 층 정규화와 사후 층 정규화 21

그림 9. 트랜스포머 디코더의 층을 확대한 그림 21

그림 10. BERT의 입력 임베딩과 출력 임베딩 23

그림 11. 문맥정보 임베딩 벡터의 계산 23

그림 12. BERT Layer 1개를 도식화 한 그림 24

그림 13. BertTokenizer의 결과 25

그림 14. BERT의 Position Embedding 25

그림 15. BERT의 Segment Embedding 26

그림 16. BERT의 마스크드 언어 27

그림 17. GAN 네트워크 29

그림 18. DCGAN의 생성자 네트워크 구조 30

그림 19. CycleGAN의 학습데이터와 pix2pix의 학습데이터의 차이 32

그림 20. VQ-GAN 아키텍체 33

그림 21. 사전기반 감정분석 36

그림 22. 기계학습 기반 감성분석 37

그림 23. 데이터셋의 라벨 분포 39

그림 24. 길이가 1인 데이터들 39

그림 25. 데이터셋의 품사 빈도수 그래프 40

그림 26. 각 EDA 기법의 정확도 비교 44

그림 27. 각 기법에 따른 BERT BASE 모델과 BERT LARGE 모델의 성능 비교 45

수식목차

수식 1. 어텐션 함수 13

수식 2. 새로운 임베딩 17

수식 3. Least Square Loss 31