본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

표제지

목차

논문요약 10

제1장 서론 12

제2장 연구배경 15

1. 순차적 추천 시스템 15

2. 트랜스포머 기반 순차적 추천 모델 17

3. 선행 실험 19

제3장 실험환경 21

1. 데이터셋 21

2. 평가 지표 및 평가 프로토콜 22

3. 구현 세부 정보 23

제4장 실험결과 24

1. SASRec과 BERT4Rec의 성능 비교 24

2. 데이터셋 특성에 따른 성능 분석 28

1) 사용자-항목 상호작용 수 28

2) 사용자 시퀀스 길이 35

3) 목표 항목 인기도 36

제5장 통합된 트랜스포머 기반 추천 모델 38

1. BERT4Rec의 성능 저하 원인 38

2. SASRec과 BERT4Rec의 통합 41

제6장 결론 45

참고 문헌 46

ABSTRACT 52

표목차

표 1. 여덟 가지 벤치마크 데이터셋 통계 21

표 2. 상호작용 수가 많은 데이터셋에서 SASRec과 BERT4Rec의 성능 비교. ML-1M, ML-10M, Steam, Yelp 데이터셋에 대해 인기도 기반 샘플링 평가 방식을 활용하여... 24

표 3. 상호작용 수가 적은 데이터셋에서 SASRec과 BERT4Rec의 성능 비교. Beauty, Sports, Toys, LastFM 데이터셋에 대해 인기도 기반 샘플링 평가 방식을 활용하여... 25

표 4. ML-1M과 Beauty 데이터에 대한 목표 항목 인기도 편향에 따른 SASRec과 BERT4Rec의 성능 비교 36

그림목차

그림 1. 트랜스포머 기반 순차적 추천 모델들의 구조 비교 17

그림 2. ML-1M과 Beauty 데이터셋에서 두 모델의 학습 손실 변화 추이 19

그림 3. 데이터셋 그룹에 따른 성능 경향성 27

그림 4. ML-1M 데이터에서 사용자-항목 상호작용 수에 따른 SASRec과 BERT4Rec의 성능 변화. X축은 전체 사용자-항목 상호작용에서 학습에 활용한... 28

그림 5. ML-1M 과 Beauty 데이터셋에 대한BERT4Rec 어텐션 가중치. 왼쪽 상단은 첫 번째 층의 첫 번째 헤드, 오른쪽 상단은 첫 번째 층의 두 번째 헤드를 의미하며, 왼쪽... 30

그림 6. Beauty와 Toys 데이터에서 학습 단계를 늘린 BERT4Rec 성능 비교. BERT4Rec이 기존 학습 단계로 학습한 모델이며 BERT4Rec+는 기존 대비 5배 긴... 34

그림 7. ML-1M과 Beauty 데이터에 대한 최대 시퀀스 길이에 따른 SASRec과 BERT4Rec의 성능 변화. 35

그림 8. Beauty 데이터셋에서 마지막 항목 예측 비율에 따른 성능 변화. X축은 전체 학습 데이터 중 마지막 항목 마스킹을 수행하는 비율을 의미한다. 40

그림 9. 통합된 트랜스포머 기반 순차적 추천 모델. BERT4Rec의 트랜스포머 인코더와 SASRec의 트랜스포머 디코더를 통합한 트랜스포머 인코더-디코더 구조의... 41

그림 10. ML-1M과 Beauty 데이터셋에서 SASRec, BERT4Rec, 통합된 모델의 성능 비교. SASRec+BERT4Rec은 SASRec의 트랜스포머 디코더와 BERT4Rec의... 43

초록보기

 순차적 추천 시스템은 시간 순서로 제공되는 사용자 로그로부터 관심사를 추출하고 이를 바탕으로 사용자가 다음에 선호할만한 항목을 추천한다. 최근 딥러닝 기술의 발달에 힘입어 트랜스포머 기반의 순차적 추천 시스템 개발이 활발히 이루어지고 있다. 그 중에서도 SASRec과 BERT4Rec은 대표적인 트랜스포머 기반의 순차적 추천 모델로서, 많은 기존 연구들이 통상적으로 이 두 모델을 베이스라인으로 널리 활용하고 있다. 하지만 많은 연구들에서 SASRec과 BERT4Rec은 데이터 전처리와 초모수 조정 방법들에 따라 일관된 성능을 보이지 않았다. 본 논문에서는 여덟 가지 대표적 순차적 추천 데이터셋에서 SASRec과 BERT4Rec의 성능을 비교 및 분석하여 두 모델의 성능을 객관적으로 평가 및 검증한다. 이를 통해, 우리는 사용자-항목 상호작용 수가 BERT4Rec의 마스크 토큰 예측 학습 방법의 유효성에 가장 큰 영향을 미치며, 두 모델의 성능 차이를 유발한다는 사실을 관찰하였다. 더 나아가, 우리는 상호보완적 관계에 있는 SASRec과 BERT4Rec을 통합하여 두 모델의 강점을 모두 가지는 트랜스포머 인코더-디코더 모델을 구성하였다. 인코더-디코더 모델은 단일 모델들 대비 모든 데이터셋에서 우수한 성능을 보였으며, 이는 두 모델이 장점이 적절히 통합되었음을 시사한다.