1장 개발 환경 구축하기1.1 아나콘다 설치하기1.2 VS Code 설치 및 환경 설정1.3 마치며2장 딥러닝 소개2.1 딥러닝이란?2.2 좋은 인공지능이란?2.3 머신러닝 프로젝트 워크플로2.4 수학 용어 설명2.5 마치며3장 파이토치 튜토리얼3.1 왜 파이토치인가?3.2 (실습) 파이토치 설치3.3 텐서란?3.4 (실습) 기본 연산3.5 (실습) 텐서 형태 변환3.6 (실습) 텐서 자르기 & 붙이기3.7 (실습) 유용한 함수들4장 선형 계층4.1 행렬 곱4.2 (실습) 행렬 곱4.3 선형 계층4.4 (실습) 선형 계층4.5 (실습) GPU 사용하기4.6 마치며5장 손실 함수5.1 평균 제곱 오차5.2 (실습) MSE Loss5.3 마치며6장 경사하강법6.1 미분이란?6.2 편미분6.3 경사하강법6.4 학습률에 따른 성질6.5 (실습) 경사하강법 구현6.6 (실습) 파이토치 오토그래드 소개6.7 마치며7장 선형 회귀7.1 선형 회귀란?7.2 선형 회귀의 수식7.3 (실습) 선형 회귀7.4 마치며8장 로지스틱 회귀8.1 활성 함수8.2 로지스틱 회귀란?8.3 로지스틱 회귀의 손실함수8.4 로지스틱 회귀의 수식8.5 (실습) 로지스틱 회귀8.6 마치며9장 심층신경망 I9.1 심층신경망9.2 심층신경망의 학습9.3 역전파 알고리즘의 수식9.4 그래디언트 소실 문제9.5 렐루9.6 (실습) Deep Regression9.7 마치며10장 확률적 경사하강법10.1 확률적 경사하강법이란?10.2 SGD의 직관적 이해10.3 미니배치 크기에 따른 SGD10.4 (실습) SGD 적용하기10.5 마치며11장 최적화11.1 하이퍼파라미터란?11.2 팁 : 효율적인 연구/개발 진행 방법11.3 적응형 학습률11.4 적응형 학습률의 수식11.5 (실습) 아담 옵티마이저 적용하기11.6 마치며12장 오버피팅을 방지하는 방법12.1 모델 평가하기12.2 오버피팅이란?12.3 테스트셋 구성하기12.4 (실습) 데이터 나누기12.5 마치며13장 심층신경망 II13.1 이진 분류13.2 평가 지표13.3 (실습) Deep Binary Classification13.4 심층신경망을 활용한 분류13.5 소프트맥스 함수와 교차 엔트로피 손실 함수13.6 다중 클래스 분류 결과 분석하기13.7 (실습) Deep Classification13.8 마치며14장 정규화14.1 정규화의 개요14.2 가중치 감쇠14.3 데이터 증강14.4 드롭아웃14.5 배치정규화14.6 (실습) 정규화14.7 마치며15장 실무 환경에서의 프로젝트 연습15.1 실무를 진행하듯 실습하기15.2 워크플로 리뷰15.3 실습 소개15.4 (실습) 분류기 모델 구현하기15.5 (실습) 데이터 로딩 구현하기15.6 (실습) 트레이너 클래스 구현하기15.7 (실습) train.py 구현하기15.8 (실습) predict.ipynb 구현하기15.9 마치며16장 표현 학습16.1 특징(feature)이란?16.2 원 핫 인코딩16.3 차원 축소16.4 오토인코더16.5 마치며17장 확률론적 관점17.1 들어가며17.2 기본 확률 통계17.3 MLE(Maximum Likelihood Estimation)17.4 신경망과 MLE17.5 수식: MLE17.6 MSE 손실 함수와 MLE18장 CNN(합성곱신경망)18.1 전통적인 방식18.2 합성곱 연산18.3 패턴 추출의 원리18.4 맥스 풀링과 스트라이드 기법18.5 합성곱신경망 설계 예제18.6 (실습) CNN으로 MNIST 분류 구현하기18.7 마치며19장 RNN(순환신경망)19.1 순환신경망 소개19.2 RNN 한 걸음씩 들여다보기19.3 순환신경망 활용 사례19.4 LSTM19.5 그래디언트 클리핑19.6 (실습) LSTM으로 MNIST 분류 구현하기19.7 마치며