생몰정보
소속
직위
직업
활동분야
주기
서지
국회도서관 서비스 이용에 대한 안내를 해드립니다.
검색결과 (전체 1건)
원문 아이콘이 없는 경우 국회도서관 방문 시 책자로 이용 가능
목차보기더보기
[1부] 텍스트 마이닝 기초▣ 01장: 텍스트 마이닝 기초1.1 텍스트 마이닝의 정의1.2 텍스트 마이닝 패러다임의 변화 ___1.2.1 카운트 기반의 문서 표현___1.2.2 시퀀스 기반의 문서 표현1.3 텍스트 마이닝에 필요한 지식과 도구___1.3.1 자연어 처리 기법___1.3.2 통계학과 선형대수___1.3.3 시각화 기법___1.3.4 머신러닝___1.3.5 딥러닝1.4 텍스트 마이닝의 주요 적용분야 ___1.4.1 문서 분류___1.4.2 문서 생성___1.4.3 문서 요약___1.4.4 질의응답___1.4.5 기계번역___1.4.6 토픽 모델링1.5 이 책의 실습 환경과 사용 소프트웨어___1.5.1 기본 실습 환경___1.5.2 자연어 처리 관련 라이브러리___1.5.3 머신러닝 관련 라이브러리 ___1.5.4 딥러닝 관련 라이브러리▣ 02장: 텍스트 전처리2.1 텍스트 전처리의 개념___2.1.1 왜 전처리가 필요한가?___2.1.2 전처리의 단계___2.1.3 실습 구성2.2 토큰화___2.2.1 문장 토큰화___2.2.2 단어 토큰화 ___2.2.3 정규표현식을 이용한 토큰화___2.2.4 노이즈와 불용어 제거 2.3 정규화___2.3.1 어간 추출 ___2.3.2 표제어 추출2.4 품사 태깅___2.4.1 품사의 이해___2.4.2 NLTK를 활용한 품사 태깅___2.4.3 한글 형태소 분석과 품사 태깅___2.4.4 참고자료▣ 03장: 그래프와 워드 클라우드 3.1 단어 빈도 그래프 - 많이 쓰인 단어는?3.2 워드 클라우드로 내용을 한눈에 보기 3.3 한국어 문서에 대한 그래프와 워드 클라우드[2부] BOW 기반의 텍스트 마이닝▣ 04장: 카운트 기반의 문서 표현 4.1 카운트 기반 문서 표현의 개념4.2 BOW 기반의 카운트 벡터 생성4.3 사이킷런으로 카운트 벡터 생성4.4 한국어 텍스트의 카운트 벡터 변환___4.4.1 데이터 다운로드4.5 카운트 벡터의 활용4.6 TF-IDF로 성능을 높여보자▣ 05장: BOW 기반의 문서 분류5.1 20 뉴스그룹 데이터 준비 및 특성 추출___5.1.1 데이터셋 확인 및 분리___5.1.2 카운트 기반 특성 추출5.2 머신러닝과 문서 분류 과정에 대한 이해 5.3 나이브 베이즈 분류기를 이용한 문서 분류5.4 로지스틱 회귀분석을 이용한 문서 분류___5.4.1 릿지 회귀를 이용한 과적합 방지___5.4.2 라쏘 회귀를 이용한 특성 선택5.5 결정트리 등을 이용한 기타 문서 분류 방법5.6 성능을 높이는 방법5.7 카운트 기반의 문제점과 N-gram을 이용한 보완___5.7.1 통계로는 알 수 없는 문맥 정보___5.7.2 N-gram의 이해___5.7.3 N-gram을 이용한 문서 분류5.8 한국어 문서의 분류___5.8.1 다음 영화 리뷰에 대한 영화 제목 예측___5.8.2 성능을 개선하기 위한 노력 ▣ 06장: 차원 축소6.1 차원의 저주와 차원 축소의 이유6.2 PCA를 이용한 차원 축소6.3 LSA를 이용한 차원 축소와 의미 파악___6.3.1 LSA를 이용한 차원 축소와 성능 ___6.3.2 LSA를 이용한 의미 기반의 문서 간 유사도 계산___6.3.3 잠재된 토픽의 분석___6.3.4 단어 간 의미 유사도 분석 6.4 tSNE를 이용한 시각화와 차원축소의 효과▣ 07장: 토픽 모델링으로 주제 찾기7.1 토픽 모델링과 LDA의 이해 ___7.1.1 토픽 모델링이란?___7.1.2 LDA 모형의 구조___7.1.3 모형의 평가와 적절한 토픽 수의 결정7.2 사이킷런을 이용한 토픽 모델링___7.2.1 데이터 준비 ___7.2.2 LDA 토픽 모델링 실행___7.2.3 최적의 토픽 수 선택하기 7.3 Gensim을 이용한 토픽 모델링___7.3.1 Gensim 사용법과 시각화___7.3.2 혼란도와 토픽 응집도를 이용한 최적값 선택7.4 토픽 트렌드로 시간에 따른 주제의 변화 알아내기▣ 08장: 감성 분석8.1 감성분석의 이해___8.1.1 어휘 기반의 감성 분석___8.1.2 머신러닝 기반의 감성 분석8.2 감성 사전을 이용한 영화 리뷰 감성 분석___8.2.1 NLTK 영화 리뷰 데이터 준비___8.2.2 TextBlob을 이용한 감성 분석___8.2.3 AFINN을 이용한 감성 분석___8.2.4 VADER를 이용한 감성 분석___8.2.5 한글 감성사전8.3 학습을 통한 머신러닝 기반의 감성 분석___8.3.1 NLTK 영화 리뷰에 대한 머신러닝 기반 감성 분석___8.3.2 다음 영화 리뷰에 대한 머신러닝 기반 감성 분석 8.4 참고문헌 ▣ 09장: 인공신경망과 딥러닝의 이해9.1 인공신경망의 이해___9.1.1 인공신경망의 구조와 구성요소___9.1.2 인공신경망에서의 학습___9.1.3 손실 함수의 이해___9.1.4 경사하강법9.2 딥러닝의 이해___9.2.1 딥러닝이란?___9.2.2 층이 깊은 신경망의 문제점___9.2.3 딥러닝에서의 해결방안___9.2.4 다양한 딥러닝 알고리즘___9.2.5 딥러닝 개발 및 활용환경[3부] 텍스트 마이닝을 위한 딥러닝 기법▣ 10장: RNN - 딥러닝을 이용한 문서 분류10.1 왜 RNN일까?___10.1.1 RNN의 이해___10.1.2 RNN이 문서 분류에 적합한 이유___10.1.3 RNN의 문서 분류 적용방안10.2 워드 임베딩의 이해___10.2.1 워드 임베딩이란?___10.2.2 BOW와 문서 임베딩___10.2.3 워드 임베딩과 딥러닝10.3 RNN을 이용한 문서 분류 - NLTK 영화 리뷰 감성분석___10.3.1 워드 임베딩을 위한 데이터 준비___10.3.2 RNN이 아닌 일반적인 신경망 모형을 이용한 분류___10.3.3 문서의 순서정보를 활용하는 RNN 기반 문서분류10.4 LSTM, Bi-LSTM과 GRU를 이용한 성능 개선▣ 11장: Word2Vec, ELMo, Doc2Vec의 이해11.1 Word2Vec - 대표적인 워드 임베딩 기법___11.1.1 Word2Vec 학습의 원리___11.1.2 Word2Vec 활용 - 학습된 모형 가져오기___11.1.3 FastText - 워드 임베딩에 N-gram 적용11.2 ELMo - 문맥에 따른 단어 의미의 구분___11.2.1 Word2Vec의 문제점___11.2.2 ELMo의 구조11.3 Doc2Vec - 문맥을 고려한 문서 임베딩▣ 12장: CNN - 이미지 분류를 응용한 문서 분류12.1 CNN의 등장과 작동 원리 12.2 CNN을 이용한 문서 분류12.2.1 CNN을 이용한 문서 분류의 원리12.2.2 CNN을 이용한 NLTK 영화 리뷰 분류▣ 13장: 어텐션(Attention)과 트랜스포머13.1 Seq2seq: 번역에서 시작한 딥러닝 기법13.2 어텐션을 이용한 성능의 향상13.3 셀프 어텐션(Self-attention)과 트랜스포머___13.3.1 셀프 어텐션의 이해___13.3.2 트랜스포머의 구조___13.3.3 인코더의 셀프 어텐션 원리___13.3.4 디코더의 작동 원리▣ 14장: BERT의 이해와 간단한 활용14.1 왜 언어 모델이 중요한가?14.2 BERT의 구조14.3 언어모델을 이용한 사전학습과 미세조정학습14.4 사전학습된 BERT 모형의 직접 사용방법14.5 자동 클래스를 이용한 토크나이저와 모형의 사용▣ 15장: BERT 사전학습 모형에 대한 미세조정학습15.1 BERT 학습을 위한 전처리15.2 트랜스포머의 트레이너를 이용한 미세조정학습15.3 파이토치를 이용한 미세조정학습▣ 16장: 한국어 문서에 대한 BERT 활용16.1 다중 언어 BERT 사전학습 모형의 미세조정학습16.2 KoBERT 사전학습 모형에 대한 파이토치 미세조정학습
이용현황보기
가상서가
원문구축 및 2018년 이후 자료는 524호에서 직접 열람하십시요.
도서위치안내: / 서가번호:
우편복사 목록담기를 완료하였습니다.
* 표시는 필수사항 입니다.
* 주의: 국회도서관 이용자 모두에게 공유서재로 서비스 됩니다.
저장 되었습니다.
로그인을 하시려면 아이디와 비밀번호를 입력해주세요. 모바일 간편 열람증으로 입실한 경우 회원가입을 해야합니다.
공용 PC이므로 한번 더 로그인 해 주시기 바랍니다.
아이디 또는 비밀번호를 확인해주세요