본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

목차 1

비휘발성 메모리 기반 시스템의 딥러닝 연구를 위한 Full-Stack 시뮬레이터 구현 = Implementing full-stack simulator for deep learning system using non-volatile memory / 최주희 1

요약 1

Abstract 1

1. 서론 2

2. 관련 연구 2

2.1. 비휘발성 메모리 2

2.2. End-to-End Full-Stack 딥러닝 시뮬레이터 3

3. 비휘발성 메모리 기반 딥러닝 시스템 3

4. 실험 및 결과 4

4.1. 실험 환경 4

4.2. 결과 4

5. 결론 5

References 6

[저자소개] 7

권호기사

권호기사 목록 테이블로 기사명, 저자명, 페이지, 원문, 기사목차 순으로 되어있습니다.
기사명 저자명 페이지 원문 목차
비휘발성 메모리 기반 시스템의 딥러닝 연구를 위한 Full-Stack 시뮬레이터 구현 = Implementing full-stack simulator for deep learning system using non-volatile memory 최주희 p. 61-67

보기
AutoML을 이용한 무기체계 소프트웨어 정적시험 거짓경보 분류 모델 개발 = A development on weapon system software static test false alarm classification model using AutoML 남효주, 이인섭, 김태우, 정남훈, 조규태, 노성규 p. 68-75

보기
변경 데이터 감지를 통한 개방형 데이터허브의 통합 인증 인가 시스템 구현 = Implementing a unified authentication and authorization system on open data hub with change data capture 정현재, 한지우, 손시운, 원희선 p. 76-82

보기
분기된 일화기억 기반의 자기지도적 정책 학습 방법 = Diverged episodic memory-based self-supervised policy learning 이강훈, 김기범, 한동식, 장병탁 p. 83-88

보기
OneM2M 표준을 준수한 애플리케이션에서 MVP 및 MVVM 아키텍처 성능 비교 및 분석 = In applications conforming to the oneM2M standard MVP and MVVM architecture performance comparison and analysis 조준형, 박현주 p. 89-94

보기
대화 생성을 위한 응답 인식 후보 쌍 검색 방법 = Response-aware retrieving candidate pair for dialogue generation 김봉민, 홍충선, 박성배 p. 95-100

보기
이기종 플랫폼을 위한 데이터 공유 프레임워크 = Data sharing framework for heterogeneous platforms 공형준, 한혁, 강수용 p. 101-106

보기

참고문헌 (23건) : 자료제공( 네이버학술정보 )

참고문헌 목록에 대한 테이블로 번호, 참고문헌, 국회도서관 소장유무로 구성되어 있습니다.
번호 참고문헌 국회도서관 소장유무
1 1 ] N. P. Jouppi, et al., “In-datacenter performance analysis of a tensor processing unit,” 44th Annual International Symposium on Computer Architecture (ISCA), pp. 1-12, 2017. 미소장
2 2 ] J. Lee, et al., “UNPU: An energy-efficient deep neural network accelerator with fully variable weight bit precision,” IEEE Journal of Solid-State Circuits, Vol. 54, No. 1, pp. 173-185, 2018. 미소장
3 3 ] S. Liu, et al., "Cambricon: An Instruction Set Architecture for Neural Networks," 2016 ACM/IEEE 43rd Annual International Symposium on Computer Architecture (ISCA), pp. 393-405, 2016. 미소장
4 4 ] S. Xi, Y. Yao, K. Bhardwaj, P. Whatmough, G.-Y. Wei, and D. Brooks, “SMAUG: End-to-end full-stack simulation infrastructure for deep learning workloads,” ACM Transactions on Architecture and Code Optimization (TACO), Vol. 17, No. 4, pp. 1-26, 2020. 미소장
5 5 ] Y. S. Shao, S. L. Xi, V. Srinivasan, G. Wei and D. Brooks, "Co-designing accelerators and SoC interfaces using gem5-Aladdin," 2016 49th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO), pp. 1-12, 2016. 미소장
6 6 ] S. Tehrani, et al., “Magnetoresistive random access memory using magnetic tunnel junctions,”Proceedings of the IEEE, vol. 91, No. 5, pp. 703-714, 2003. 미소장
7 7 ] J. Liu, et al. “Voltage-induced magnetization switching method utilizing dipole coupled magnetic tunnel junction,” Journal of Magnetism and Magnetic Materials, Vol. 513, pp. 167105. 2020. 미소장
8 8 ] K. L. Wang, J. G. Alzate, P. K. Amiri, "Low-power non-volatile spintronic memory: STT-RAM and beyond," Journal of Physics D: Applied Physics, Vol. 46, No. 7, pp. 074003, 2013. 미소장
9 9 ] P. Saraf, et al. “Endurance enhancement of write-optimized STT-RAM caches,” In Proceedings of the International Symposium on Memory Systems, pp. 101-113, 2019. 미소장
10 N. Rohbani, et al., “Nvdl-cache: Narrow-width value aware variable delay low-power data cache,”In 2019 IEEE 37th International Conference on Computer Design, pp. 264-272, 2019. 미소장
11 A. Monazzah, et al., “CAST: content-aware STT-MRAM cache write management for different levels of approximation,” IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, Vol. 39, No. 12, pp. 4385-4398, 2020. 미소장
12 J. Kim and Y. Eom, “Distributed storage system for reducing write amplification on non-volatile memory,” Journal of KIISE, Vol. 47, No. 2, pp. 129-135, 2020. 미소장
13 J. Kim and Y. Eom, “An NVM-based efficient write-reduction scheme for block device driver performance improvement,” Journal of KIISE, Vol. 46, No. 10, pp. 981-988, 2019. 미소장
14 L. Piccolboni, P. Mantovani, G. Di Guglielmo, and L. P. Carloni, "Broadening the exploration of the accelerator design space in embedded scalable platforms," 2017 IEEE High Performance Extreme Computing Conference (HPEC), pp. 1-7, 2017. 미소장
15 T. Liang, L. Feng, S. Sinha, and W. Zhang, "PAAS:A system level simulator for heterogeneous computing architectures," 27th International Conference on Field Programmable Logic and Applications (FPL), pp. 1-8, 2017. 미소장
16 V. Subramanian, “Deep learning with PyTorch: A practical approach to building neural network models using PyTorch,” Packt Publishing Ltd, 2018. 미소장
17 N. Shukla, “Machine Learning with TensorFlow,”Manning Publications, Shelter Island, NY, USA, 2018. 미소장
18 X. Zhang, et al., "DNNBuilder: an Automated Tool for Building High-Performance DNN Hardware Accelerators for FPGAs," 2018 IEEE/ACM International Conference on Computer-Aided Design (ICCAD), pp. 1-8, 2018. 미소장
19 R. Venkatesan, et al., "MAGNet: A Modular Accelerator Generator for Neural Networks," 2019IEEE/ACM International Conference on Computer-Aided Design (ICCAD), pp. 1-8, 2019. 미소장
20 A. Parashar et al., "Timeloop: A Systematic Approach to DNN Accelerator Evaluation," 2019IEEE International Symposium on Performance Analysis of Systems and Software (ISPASS), pp. 304-315, 2019. 미소장
21 A. Jadidi, M. Arjomand, and H. Sarbazi-Azad, “High-endurance and performance-efficient design of hybrid cache architectures through adaptive line replacement,” 17th IEEE/ACM International Symposium on Low-power Electronics and Design, pp. 79-84, 2011. 미소장
22 B. Reagen, et al., "Minerva: Enabling Low-Power, Highly-Accurate Deep Neural Network Accelerators,"2016 ACM/IEEE 43rd Annual International Symposium on Computer Architecture (ISCA), pp. 267-278, 2016. 미소장
23 D.-A. Clevert, et al., “Fast and accurate deep network learning by exponential linear units (elus),”arXiv preprint arXiv:1511.07289, 2015. 미소장