원표제: Spark : the definitive guide : big data processing made simple 색인 수록 부록: A. 스파크 설치 및 실행 ; B. 더블린 원정대: 스파크 서밋 2017 더블린 참관기
연계정보
외부기관 원문
목차보기
Part 1 빅데이터와 스파크 간단히 살펴보기 CHAPTER 1 아파치 스파크란 1.1 아파치 스파크의 철학 1.2 스파크의 등장 배경 1.3 스파크의 역사 1.4 스파크의 현재와 미래 1.5 스파크 실행하기 1.6 정리
CHAPTER 2 스파크 간단히 살펴보기 2.1 스파크의 기본 아키텍처 2.2 스파크의 다양한 언어 API 2.3 스파크 API 2.4 스파크 시작하기 2.5 SparkSession 2.6 DataFrame 2.7 트랜스포메이션 2.8 액션 2.9 스파크 UI 2.10 종합 예제 2.11 정리
CHAPTER 3 스파크 기능 둘러보기 3.1 운영용 애플리케이션 실행하기 3.2 Dataset: 타입 안정성을 제공하는 구조적 API 3.3 구조적 스트리밍 3.4 머신러닝과 고급 분석 3.5 저수준 API 3.6 SparkR 3.7 스파크의 에코시스템과 패키지 3.8 정리
Part 2 구조적 API: DataFrame, SQL, Part 2Dataset CHAPTER 4 구조적 API 개요 4.1 DataFrame과 Dataset 4.2 스키마 4.3 스파크의 구조적 데이터 타입 개요 4.4 구조적 API의 실행 과정 4.5 정리
CHAPTER 5 구조적 API 기본 연산 5.1 스키마 5.2 컬럼과 표현식 5.3 레코드와 로우 5.4 DataFrame의 트랜스포메이션 5.5 정리
CHAPTER 6 다양한 데이터 타입 다루기 6.1 API는 어디서 찾을까 6.2 스파크 데이터 타입으로 변환하기 6.3 불리언 데이터 타입 다루기 6.4 수치형 데이터 타입 다루기 6.5 문자열 데이터 타입 다루기 6.6 날짜와 타임스탬프 데이터 타입 다루기 6.7 null 값 다루기 6.8 정렬하기 6.9 복합 데이터 타입 다루기 6.10 JSON 다루기 6.11 사용자 정의 함수 6.12 Hive UDF 6.13 정리
CHAPTER 7 집계 연산 7.1 집계 함수 7.2 그룹화 7.3 윈도우 함수 7.4 그룹화 셋 7.5 사용자 정의 집계 함수 7.6 정리
CHAPTER 8 조인 8.1 조인 표현식 8.2 조인 타입 8.3 내부 조인 8.4 외부 조인 8.5 왼쪽 외부 조인 8.6 오른쪽 외부 조인 8.7 왼쪽 세미 조인 8.8 왼쪽 안티 조인 8.9 자연 조인 8.10 교차 조인(카테시안 조인) 8.11 조인 사용 시 문제점 8.12 스파크의 조인 수행 방식 8.13 정리
CHAPTER 9 데이터소스 9.1 데이터소스 API의 구조 9.2 CSV 파일 9.3 JSON 파일 9.4 파케이 파일 9.5 ORC 파일 9.6 SQL 데이터베이스 9.7 텍스트 파일 9.8 고급 I/O 개념 9.9 정리
CHAPTER 10 스파크 SQL 10.1 SQL이란 10.2 빅데이터와 SQL: 아파치 하이브 10.3 빅데이터와 SQL: 스파크 SQL 10.4 스파크 SQL 쿼리 실행 방법 10.5 카탈로그 10.6 테이블 10.7 뷰 10.8 데이터베이스 10.9 select 구문 10.10 고급 주제 10.11 다양한 기능 10.12 정리
CHAPTER 11 Dataset 11.1 Dataset을 사용할 시기 11.2 Dataset 생성 11.3 액션 11.4 트랜스포메이션 11.5 조인 11.6 그룹화와 집계 11.7 정리
Part 3 저수준 API CHAPTER 12 RDD 12.1 저수준 API란 12.2 RDD 개요 12.3 RDD 생성하기 12.4 RDD 다루기 12.5 트랜스포메이션 12.6 액션 12.7 파일 저장하기 12.8 캐싱 12.9 체크포인팅 12.10 RDD를 시스템 명령으로 전송하기 12.11 정리
CHAPTER 13 RDD 고급 개념 13.1 키-값 형태의 기초(키-값 형태의 RDD) 13.2 집계 13.3 cogroup 13.4 조인 13.5 파티션 제어하기 13.6 사용자 정의 직렬화 13.7 정리
CHAPTER 14 분산형 공유 변수 14.1 브로드캐스트 변수 14.2 어큐뮬레이터 14.3 정리
Part 4 운영용 애플리케이션 CHAPTER 15 클러스터에서 스파크 실행하기 15.1 스파크 애플리케이션의 아키텍처 15.2 스파크 애플리케이션의 생애주기(스파크 외부) 15.3 스파크 애플리케이션의 생애주기(스파크 내부) 15.4 세부 실행 과정 15.5 정리
CHAPTER 16 스파크 애플리케이션 개발하기 16.1 스파크 애플리케이션 작성하기 16.2 스파크 애플리케이션 테스트 16.3 개발 프로세스 16.4 애플리케이션 시작하기 16.5 애플리케이션 환경 설정하기 16.6 정리
CHAPTER 17 스파크 배포 환경 17.1 스파크 애플리케이션 실행을 위한 클러스터 환경 17.2 클러스터 매니저 17.3 기타 고려사항 17.4 정리
CHAPTER 18 모니터링과 디버깅 18.1 모니터링 범위 18.2 모니터링 대상 18.3 스파크 로그 18.4 스파크 UI 18.5 디버깅 및 스파크 응급 처치 18.6 정리
CHAPTER 19 성능 튜닝 19.1 간접적인 성능 향상 기법 19.2 직접적인 성능 향상 기법 19.3 정리
Part 5 스트리밍 CHAPTER 20 스트림 처리의 기초 20.1 스트림 처리란 20.2 스트림 처리의 핵심 설계 개념 20.3 스파크의 스트리밍 API 20.4 정리
CHAPTER 21 구조적 스트리밍의 기초 21.1 구조적 스트리밍의 기초 21.2 핵심 개념 21.3 구조적 스트리밍 활용 21.4 스트림 트랜스포메이션 21.5 입력과 출력 21.6 스트리밍 Dataset API 21.7 정리
CHAPTER 22 이벤트 시간과 상태 기반 처리 22.1 이벤트 시간 처리 22.2 상태 기반 처리 22.3 임의적인 상태 기반 처리 22.4 이벤트 시간 처리의 기본 22.5 이벤트 시간 윈도우 22.6 스트림에서 중복 데이터 제거하기 22.7 임의적인 상태 기반 처리 22.8 정리
CHAPTER 23 운영 환경에서의 구조적 스트리밍 23.1 내고장성과 체크포인팅 23.2 애플리케이션 변경하기 23.3 메트릭과 모니터링 23.4 알림 23.5 스트리밍 리스너를 사용한 고급 모니터링 23.6 정리
Part 6 고급 분석과 머신러닝 CHAPTER 24 고급 분석과 머신러닝 개요 24.1 고급 분석에 대한 짧은 입문서 24.2 스파크의 고급 분석 툴킷 24.3 고수준 MLlib의 개념 24.4 MLlib 실제로 사용하기 24.5 모델 배포 방식 24.6 정리
CHAPTER 25 데이터 전처리 및 피처 엔지니어링 25.1 사용 목적에 따라 모델 서식 지정하기 25.2 변환자 25.3 전처리 추정자 25.4 고수준 변환자 25.5 연속형 특징 처리하기 25.6 범주형 특징 처리하기 25.7 텍스트 데이터 변환자 25.8 특징 조작하기 25.9 특징 선택 25.10 고급 주제 25.11 정리
CHAPTER 26 분류 26.1 활용 사례 26.2 분류 유형 26.3 MLlib의 분류 모델 26.4 로지스틱 회귀 26.5 의사결정트리 26.6 랜덤 포레스트와 그래디언트 부스티드 트리 26.7 나이브 베이즈 26.8 분류와 자동 모델 튜닝을 위한 평가기 26.9 세부 평가지표 26.10 일대다 분류기 26.11 다층 퍼셉트론 26.12 정리
CHAPTER 27 회귀 27.1 활용 사례 27.2 MLlib에서 제공하는 회귀 모델 27.3 선형 회귀 27.4 일반화 선형 회귀 27.5 의사결정트리 27.6 랜덤 포레스트와 그래디언트 부스티드 트리 27.7 고급 방법론 27.8 평가기와 모델 튜닝 자동화 27.9 평가지표 27.10 정리
CHAPTER 28 추천 28.1 활용 사례 28.2 교차최소제곱 알고리즘을 사용하여 협업 필터링 구현하기 28.3 추천을 위한 평가기 28.4 성과 평가지표 28.5 빈발 패턴 마이닝 28.6 정리
CHAPTER 29 비지도 학습 29.1 활용 사례 29.2 모델 확장성 29.3 k-평균 29.4 이분법 k-평균 29.5 가우시안 혼합 모델 29.6 잠재 디리클레 할당 29.7 정리
CHAPTER 30 그래프 분석 30.1 그래프 작성하기 30.2 그래프 쿼리하기 30.3 모티프 찾기 30.4 그래프 알고리즘 30.5 정리
CHAPTER 31 딥러닝 31.1 딥러닝이란 31.2 스파크에서 딥러닝을 사용하는 방법 31.3 딥러닝 라이브러리 31.4 딥러닝 파이프라인을 사용한 간단한 예제 31.5 정리
Part 7 에코시스템 CHAPTER 32 언어별 특성: 파이썬(PySpark)과 R(SparkR, sparklyr) 32.1 PySpark 32.2 R로 스파크 사용하기 32.3 정리
CHAPTER 33 에코시스템과 커뮤니티 33.1 스파크 패키지 33.2 커뮤니티 33.3 정리
부록 A 스파크 설치 및 실행 부록 B 더블린 원정대: 스파크 서밋 2017 더블린 참관기
이용현황보기
스파크 완벽 가이드 : 스파크를 활용한 빅데이터 처리와 분석의 모든 것 이용현황 표 - 등록번호, 청구기호, 권별정보, 자료실, 이용여부로 구성 되어있습니다.
등록번호
청구기호
권별정보
자료실
이용여부
0002488657
006.312 -19-4
서울관 서고(열람신청 후 1층 대출대)
이용가능
0002488658
006.312 -19-4
서울관 서고(열람신청 후 1층 대출대)
이용가능
출판사 책소개
스파크 활용과 배포, 유지 보수까지 전체적 흐름을 포괄적으로 안내하는 바이블 이 책은 쉽게 실행할 수 있는 스파크 예제와 모든 유형의 기본 사용 사례를 다루는 스파크 종합 안내서입니다. 스파크의 기초적인 내용부터 처리, 운용, 관리, 모니터링 그리고 그래프와 머신러닝에 이르기까지 다양한 내용을 종합적으로 설명합니다. 특히 스파크 2.0 기반의 고수준 신규 API인 DataFrame, Dataset, 스파크 SQL, 구조적 스트리밍(Structured Streaming)을 집중적으로 소개합니다. 스파크를 사용하려는 데이터 과학자와 데이터 엔지니어에게 많은 도움이 될 내용으로 구성했습니다.
이 책의 번역 품질을 최고로 높이기 위해 동분서주했던 역자들의 뼈를 깎는 노고를 언급하지 않을 수 없습니다. 매일 밤을 새우다시피 하며 방대한 분량의 원서를 수십 차례에 걸쳐 다듬고 소스 코드를 수정했으며, 열 명도 넘는 업계 실무자들을 치킨으로 유혹(!)하여 수 차례에 걸친 가혹한 베타 리딩 과정을 거쳤습니다. 원서에는 없는 '실행 환경 구축'에 필요한 구체적인 내용과 '스파크 서밋 2017 더블린 참관기'도 따로 집필하여 부록으로 실었습니다. 한편으로는 독자가 조금이라도 더 친근하고 편안한 느낌으로 읽을 수 있는 문장을 만들고자 노력했습니다. 이러한 담금질을 거쳐 탄생한 이 번역서가 여러분을 경이로운 스파크의 세계로 편안하게 인도해줄 것입니다.
관련 도서 ● 아파치 스파크 ● 9가지 사례로 익히는 고급 스파크 분석(2판) ● 하둡 완벽 가이드(4판)