본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

목차 1

Epoch Score : 정량적 데이터 품질 평가 = Epoch score : dataset verification using quantitative data quality assessment / 김성렬 ; 황태욱 ; 정상근 ; 노윤형 1

요약 1

Abstract 1

1. 서론 2

2. 관련 연구들 2

3. 에폭 스코어(Epoch Score) 2

4. 실험 방법 및 결과 3

4.1. KLUE TC 데이터셋 설명 3

4.2. KLUE TC 에폭 스코어 적용 3

4.3. 재태깅 데이터 성능 검증 4

4.4. CIFAR-10 이미지 데이터셋 설명 4

4.5. CIFAR-10 에폭 스코어 적용 5

4.6. 에폭 스코어 AUC 비교 5

5. 결론 및 향후 연구 6

References 6

[저자소개] 6

권호기사

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 목차
Scala를 위한 컴파일러 지시자 기반 이종컴퓨팅 = Compiler-directive based heterogeneous computing for Scala 우정재, 박성수, 홍성인, 한환수 p. 197-203

보기
직사각형 장애물을 피하는 선분 최단경로 = Shortest paths between line segments in the presence of rectangular obstacles 서찬양, 안태훈, 안희갑 p. 204-209

보기
이미지 묘사 기법에 대한 조사 = A survey on methods for image description 옥수빈, 이대호 p. 210-227

보기
모바일 슈팅 게임 플레이 및 감상을 위한 실시간 다중촉감 청-촉각 변환 시스템 = Real-time multimodal audio-to-tactile conversion system for playing or watching mobile shooting games 문민재, 윤겨레, 박채용, 최승문 p. 228-242

보기
노년층 우울감 예측을 위한 시맨틱 네트워크기반 도메인 지식과 그래프 컨볼루션 결합 = Integrating domain knowledge with graph convolution based on a semantic network for elderly depression prediction 부석준, 박경원, 조성배 p. 243-249

보기
Epoch Score = Epoch score : dataset verification using quantitative data quality assessment : 정량적 데이터 품질 평가 김성렬, 황태욱, 정상근, 노윤형 p. 250-256

보기
비디오 부분 복사 검출을 위한 트랜스포머 기반 세그먼트 Fingerprint 생성 방법 = A generation method of segment-level fingerprint-based transformer for video partial copy detection 강수연, 정민수, 낭종호 p. 257-262

보기
탐색적 데이터 분석과 기계학습을 통한 상부 요로감염 환자 Ciprofloxacin 항생제 내성 예측 연구 = Prediction of antibiotic resistance to ciprofloxacin in patients with upper urinary tract infection through exploratory data analysis and machine learning 이종법, 이현규 p. 263-272

보기
학습 가능한 재순위화 및 응답 필터링 모델을 적용한 오픈 도메인 질의응답 시스템의 성능 향상 = Performance improvement of a Korean open domain Q&A system by applying the trainable re-ranking and response filtering model 신현호, 이명훈, 전홍우, 이재민, 최성필 p. 273-284

보기
패킷 손실 환경에서 정확도 감소를 줄이는 심층 신경망 재학습 방법 = DNN retraining method reducing accuracy degradation in packet-lossy environments 김동휘, 임유진, 한승하, 김정래 p. 285-293

보기

참고문헌 (16건) : 자료제공( 네이버학술정보 )

참고문헌 목록에 대한 테이블로 번호, 참고문헌, 국회도서관 소장유무로 구성되어 있습니다.
번호 참고문헌 국회도서관 소장유무
1 WANG, Alex, et al. GLUE: A multi-task benchmark and analysis platform for natural language understanding. arXiv preprint arXiv:1804.07461, 2018. 미소장
2 WANG, Alex, et al. Superglue: A stickier benchmark for general-purpose language under standing systems. arXiv preprint arXiv:1905.00537, 2019. 미소장
3 PARK, Sungjoon, et al. KLUE: Korean Language Understanding Evaluation. arXiv preprint arXiv:2105.09680, 2021. 미소장
4 ZHANG, Xiang; ZHAO, Junbo; LECUN, Yann. Character-level convolutional networks for text classification. Advances in neural information processing systems, 2015, 28: 649-657. 미소장
5 DEVLIN, Jacob, et al. Bert: Pre-training of deep bidirectional transformers for language under standing. arXiv preprint arXiv:1810.04805, 2018. 미소장
6 ZHANG, Tianyi, et al. Bertscore: Evaluating text generation with bert. arXiv preprint arXiv:1904.09675, 2019. 미소장
7 WOLF, Thomas, et al. Huggingface's transformers:State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. 미소장
8 LEE, Sangah, et al. Kr-bert: A small-scale korean-specific language model. arXiv preprint arXiv:2008.03979, 2020. 미소장
9 K. Kim, “Pretrained language models for korean.”https://github.com/kiyoungkim1/LMkor, 2020. 미소장
10 AKIBA, Takuya, et al. Optuna: A next-generation hyperparameter optimization framework. In:Proceedings of the 25th ACM SIGKDD inter national conference on knowledge discovery &data mining. 2019, pp. 2623-2631. 미소장
11 RADOSAVOVIC, Ilija, et al. Designing network design spaces, In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 10428-10436. 미소장
12 TAN, Mingxing; LE, Quoc. Efficientnet: Rethinking model scaling for convolutional neural networks, In International Conference on Machine Learning, PMLR, 2019. pp. 6105-6114. 미소장
13 ZAGORUYKO, Sergey; KOMODAKIS, Nikos. Wide residual networks. arXiv preprint arXiv:1605.07146, 2016. 미소장
14 XIE, Saining, et al. Aggregated residual trans formations for deep neural networks, In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017. pp. 1492-1500. 미소장
15 Settles, Burr. "Active learning literature survey."(2009). 미소장
16 Mullapudi, Ravi Teja, et al. "Learning Rare Category Classifiers on a Tight Labeling Budget,"Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021. 미소장