본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

목차

개체명 사실 판별을 통한 기계 요약의 사실 불일치 해소 = Solving factual inconsistency in abstractive summarization using named entity fact discrimination / 신정완 ; 노윤석 ; 송현제 ; 박세영 1

요약 1

Abstract 1

1. 서론 2

2. 관련 연구 3

2.1. 사실 불일치 평가 3

2.2. 사실 일치를 위한 요약 생성 및 교정 3

3. 개체명 사실 판별 및 불일치 교정을 통한 기계 요약문의 사실 불일치 해소 3

3.1. 개체명 사실적 판별 3

3.2. 사실 불일치 교정 모델 5

3.3. 모델 구현 및 학습 5

4. 실험 5

4.1. 실험 환경 5

4.2. 실험 결과 6

4.3. 기계 요약문 수정 실험 7

5. 결론 및 향후 연구 9

References 9

[저자소개] 10

초록보기

기계 요약의 사실 불일치 문제란 요약 모델이 생성한 요약문이 원문과 사실이 일치하지 않는 문제다. 사실 불일치는 개체명에서 주로 발생하므로 기존 연구들은 요약문의 잘못된 개체명을 교정하여 사실적 불일치를 해결하였다. 하지만, 명시적인 개체명 사실 불일치 판별 없이 모든 개체명을 순차적으로 교정하거나 모두 마스킹하여 교정을 시도하였다. 모든 개체명을 교정하는 연구는 원문과 일치하는 개체명도 교정을 시도하는 문제점과 마스킹되어 사실 정보임에도 불구하고 정보를 손실시키는 문제가 발생한다. 본 논문에서는 기존 연구들의 단점을 해결하기 위해 개체명 사실 여부를 판별한 뒤 사실 불일치 개체명에 대해서만 교정을 하는 방법을 제안한다. 이를 통해 사실 불일치 개체명이 발생시키는 오류를 방지할 수 있으며, 반대로 사실 일치 개체명에 대한 정보를 최대한 활용할 수 있다. 실험을 통해 제안한 방법이 기존 연구들보다 요약문의 사실 불일치를 잘 해소함을 보였다.

Factual inconsistency in abstractive summarization is a problem that a generated summary can be factually inconsistent with a source text. Previous studies adopted a span selection that replaced entities in the generated summary with entities in the source text because most inconsistencies are related to incorrect entities. These studies assumed that all entities in the generated summary were inconsistent and tried to replace all entities with other entities. However, this was problematic because some consistent entities could be replaced and masked, so information on consistent entities was lost. This paper proposes a method that sequentially executes a fact discriminator and a fact corrector to solve this problem. The fact discriminator determines the inconsistent entities, and the fact corrector replaces only the inconsistent entities. Since the fact corrector corrects only the inconsistent entities, it utilizes the consistent entities. Experiments show that the proposed method boosts the factual consistency of system-generated summaries and outperforms the baselines in terms of both automatic metrics and human evaluation.

권호기사

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 목차
베어메탈 및 가상화 환경에 따른 CERN EOS 분산 파일 시스템의 I/O 성능 분석 = Performance analysis of CERN EOS distributed file system under bare-metal and virtualization environments 이준영, 김문현, 김경준, 노서영 p. 189-195

보기
함수암호 기반 행렬 곱셈의 구현 및 응용 = Implementation and application of functional encryption-based matrix multiplication 전성윤, 이문규 p. 196-200

보기
1차원 점 집합을 무지개 집합으로 분할하는 알고리즘 = Algorithms for dividing 1-dimensional point set into rainbow subsets 윤상덕 p. 201-206

보기
C++ 연산자 오버로딩을 활용한 새로운 연산자 기호 프로그래밍 방법 = Programming new operator symbols using C++ operator overloading 우균 p. 207-213

보기
레이블 기반의 핵심 자질 학습을 통한 문서 범주화에서의 효과적인 전이학습 방법론 = Effective transfer learning in text classification with the label-based discriminative feature learning 김균엽, 강상우 p. 214-220

보기
날씨 특성을 고려한 그래프 임베딩 기반 관심 장소 추천 = Graph embedding-based point-of-interest recommendation considering weather features 이건우, 김종선, 정연돈 p. 221-230

보기
개체명 사실 판별을 통한 기계 요약의 사실 불일치 해소 = Solving factual inconsistency in abstractive summarization using named entity fact discrimination 신정완, 노윤석, 송현제, 박세영 p. 231-240

보기
Efficient approach for encoding and compression of RDF knowledge bases = RDF 지식 베이스의 효율적인 인코딩 및 압축 기법 Tangina Sultana, Young-Koo Lee p. 241-249

보기
가명정보 결합 활성화를 위한 차분 프라이버시 기반 프라이버시 보호 결합률 사전 계산 = Privacy-preserving pre-computation of join selectivity using differential privacy for the proliferation of pseudonymized data combination 이협진, 김종선, 정연돈 p. 250-255

보기
엣지 컴퓨팅 환경에서의 딥 러닝 연산 오프로딩의 병렬 최적화 = Parallel optimization of deep learning computation offloading in edge computing environment 신광용, 문수묵 p. 256-260

보기

참고문헌 (20건) : 자료제공( 네이버학술정보 )

참고문헌 목록에 대한 테이블로 번호, 참고문헌, 국회도서관 소장유무로 구성되어 있습니다.
번호 참고문헌 국회도서관 소장유무
1 1 ] R. Nallapati, B. Zhou, C. dos Santos, C. Gulcehre, and B. Xiang, "Abstractive text summarization using sequence-to-sequence RNNs and beyond,"Proc. of the 20th SIGNLL Conference on Computational Natural Language Learning, pp. 280-290, 2016. 미소장
2 2 ] A. See, P. J. Liu, and C. D. Manning, "Get to the point: Summarization with pointer-generator networks,"Proc. of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1073-1083, 2017. 미소장
3 3 ] M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov, and L. Zettlemoyer, "BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension," Proc. of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. 미소장
4 4 ] Y. Liu and M. Lapata, "Text summarization with pretrained encoders," Proc. of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th In ternational Joint Conference on Natural Language Processing, pp. 3730-3740, 2019. 미소장
5 5 ] J. Zhang, Y. Zhao, M. Saleh, and P. Liu, "PEGASUS:Pretraining with extracted gap-sentences for abstractive summarization," Proc. of the 37th International Conference on Machine Learning, Vol. 119, pp. 11328-11339, 2020. 미소장
6 6 ] T. Shi, P. Wang, and C. K. Reddy, "LeafNATS: An opensource toolkit and live demo system for neural abstractive text summarization," Proc. of the 2019Conference of the North American Chapter of the Association for Computational Linguistics, pp. 66-71, 2019. 미소장
7 7 ] A. Fabbri, I. Li, T. She, S. Li, and D. Radev, "Multi-news: A large-scale multi-document summarization dataset and abstractive hierarchical model,"Proc. of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1074-1084, 2019. 미소장
8 8 ] Z. Cao, F. Wei, W. Li, and S. Li, "Faithful to the original: Fact aware neural abstractive summarization,"Proc. of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, 2018. 미소장
9 9 ] W. Kryscinski, B. McCann, C. Xiong, and R. Socher, "Evaluating the factual consistency of abstractive text summarization," Proc. of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 9332-9346, 2020. 미소장
10 C. Zhu, W. Hinthorn, R. Xu, Q. Zeng, M. Zeng, X. Huang, and M. Jiang, "Enhancing factual consistency of abstractive summarization," Proc. of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies, pp. 718-733, 2021. 미소장
11 Y. Dong, S. Wang, Z. Gan, Y. Cheng, J. C. K. Cheung, and J. Liu, "Multi-fact correction in abstractive text summarization," Proc. of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 9320-9331, 2020. 미소장
12 J. Park, Y. Noh, and S. Park, "Learning contextual meaning representations of named entities for correcting factual inconsistent summary," Proc. of the 32th Annual Conference on Human and Language Technology, pp. 54-59, 2020. (in Korean) 미소장
13 B. Goodrich, V. Rao, P. J. Liu, and M. Saleh, "Assessing the factual accuracy of generated text,"Proc. of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 166-175, 2019. 미소장
14 A. Wang, K. Cho, and M. Lewis, "Asking and answering questions to evaluate the factual consistency of summaries," Proc. of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5008-5020, 2020. 미소장
15 E. Durmus, H. He, and M. Diab, "FEQA: A question answering evaluation framework for faithfulness assessment in abstractive summarization," Proc. of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5055-5070, 2020. 미소장
16 J. Jung, H. Ryu, D. Chang, R. Chung, and S. Jung, "Factual consistency checker through a questionanswer test based on the named entity," Proc. of the 33th Annual Conference on Human and Language Technology, pp. 112-117, 2021. (in Korean). 미소장
17 J. Maynez, S. Narayan, B. Bohnet, and R. McDonald, "On faithfulness and factuality in abstractive summarization," Proc. of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1906-1919, 2020. 미소장
18 M. Cao, Y. Dong, J. Wu, and J. C. K. Cheung, "Factual error correction for abstractive summarization models," Proc. of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 6251-6258, 2020. 미소장
19 H. Li, J. Zhu, J. Zhang, and C. Zong, "Ensure the correctness of the summary: Incorporate entailment knowledge into abstractive sentence summarization,"Proc. of the 27th International Conference on Computational Linguistics, pp. 1430-1441, 2018. 미소장
20 T. Falke, L. F. R. Ribeiro, P. A. Utama, I. Dagan, and I. Gurevych, "Ranking generated summaries by correctness: An interesting but challenging application for natural language inference," Proc. of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2214-2220, 2019. 미소장