Part 1 LLM 소개Chapter 1 LLM_1.1 LLM이란?__1.1.1 LLM 정의__1.1.2 LLM 주요 특징__1.1.3 LLM 작동 원리_1.2 현재 많이 사용되는 LLM__1.2.1 BERT__1.2.2 GPT-4와 ChatGPT__1.2.3 T5_1.3 도메인 특화 LLM_1.4 LLM을 이용한 애플리케이션__1.4.1 전통적인 자연어 처리(NLP) 작업__1.4.2 자유로운 텍스트 생성__1.4.3 정보 검색/신경망 의미 기반 검색__1.4.4 챗봇_1.5 마치며Chapter 2 LLM을 이용한 의미 기반 검색_2.1 들어가는 글_2.2 작업__2.2.1 비대칭적 의미 기반 검색_2.3 솔루션 개요_2.4 구성 요소__2.4.1 텍스트 임베더__2.4.2 문서 청킹__2.4.3 벡터 데이터베이스__2.4.4 파인콘__2.4.5 오픈 소스 대안__2.4.6 검색 결과 재순위화__2.4.7 API_2.5 통합__2.5.1 성능_2.6 클로즈드 소스 구성 요소의 비용_2.7 마치며Chapter 3 프롬프트 엔지니어링의 첫 번째 단계_3.1 들어가는 글_3.2 프롬프트 엔지니어링__3.2.1 언어 모델에서 정렬__3.2.2 직접 요청하기__3.2.3 퓨샷 학습__3.2.4 출력 구조화__3.2.5 페르소나 지정하기_3.3 여러 모델과 프롬프트 작업하기__3.3.1 ChatGPT__3.3.2 Cohere__3.3.3 오픈 소스 프롬프트 엔지니어링_3.4 ChatGPT와 Q/A 챗봇 만들기_3.5 마치며Part 2 LLM 활용법Chapter 4 맞춤형 파인튜닝으로 LLM을 최적화하기_4.1 들어가는 글_4.2 파인튜닝과 전이학습: 기초 안내서__4.2.1 파인튜닝 과정__4.2.2 파운데이션 모델로 사전 훈련된 클로즈드 소스 모델 사용하기_4.3 OpenAI 파인튜닝 API 살펴보기__4.3.1 GPT-3 파인튜닝 API__4.3.2 사례 연구: Amazon 리뷰 감정 분류__4.3.3 데이터에 대한 지침 및 모범 사례_4.4 OpenAI CLI로 맞춤형 예제 준비하기_4.5 OpenAI CLI 설정하기__4.5.1 하이퍼파라미터 선택과 최적화_4.6 첫 번째 파인튜닝 LLM__4.6.1 정량적 지표로 파인튜닝 모델 평가하기__4.6.2 정성적 평가 기술__4.6.3 파인튜닝된 GPT-3 모델을 애플리케이션에 통합하기_4.7 사례 연구 2: Amazon 리뷰 카테고리 분류_4.8 마치며Chapter 5 고급 프롬프트 엔지니어링_5.1 들어가는 글_5.2 프롬프트 인젝션 공격_5.3 입력/출력 유효성 검사__5.3.1 예제: NLI 이용해서 유효성 검사 파이프라인 만들기_5.4 배치 프롬프팅_5.5 프롬프트 체이닝__5.5.1 프롬프트 인젝션을 방어하기 위한 체이닝__5.5.2 프롬프트 스터핑을 막기 위한 체이닝__5.5.3 예제: 멀티모달 LLM을 안전하게 사용하기 위한 체이닝_5.6 연쇄적 사고 프롬프트__5.6.1 예시: 기초 연산_5.7 퓨샷 학습 다시 보기__5.7.1 예제: LLM을 이용한 초등학교 수학_5.8 테스트와 반복적 프롬프트 개발_5.9 마치며Chapter 6 임베딩과 모델 아키텍처 맞춤화_6.1 들어가는 글_6.2 사례 연구: 추천 시스템 만들기__6.2.1 문제와 데이터 설정하기__6.2.2 추천의 문제 정의하기__6.2.3 추천 시스템의 전체 개요__6.2.4 항목 비교를 위한 맞춤형 설명 필드 생성__6.2.5 파운데이션 임베더로 기준선 설정__6.2.6 파인튜닝 데이터 준비__6.2.7 문장 트랜스포머 라이브러리로 오픈 소스 임베더 파인튜닝하기__6.2.8 결과 요약_6.3 마치며Part 3 고급 LLM 사용법Chapter 7 파운데이션 모델을 넘어서_7.1 들어가는 글_7.2 사례연구: VQA__7.2.1 모델 소개: ViT, GPT-2 및 DistillBERT__7.2.2 은닉 상태 투영과 융합__7.2.3 크로스-어텐션: 이것은 무엇이며 왜 중요한가요?__7.2.4 맞춤형 멀티모달 모델__7.2.5 데이터: Visual QA__7.2.6 VQA 훈련 과정__7.2.7 결과 요약_7.3 사례 연구: 피드백 기반 강화 학습__7.3.1 모델: FLAN-T5__7.3.2 보상 모델: 감정과 문법 정확도__7.3.3 트랜스포머 강화 학습__7.3.4 RLF 훈련 과정__7.3.5 결과 요약_7.4 마치며Chapter 8 고급 오픈 소스 LLM 파인튜닝_8.1 들어가는 글_8.2 예시: BERT를 이용한 애니메이션 장르 다중 레이블 분류__8.2.1 다중 레이블 장르 예측을 위한 성능 측정 지표로 자카드 점수 사용하기__8.2.2 단순 파인튜닝 과정__8.2.3 오픈 소스 LLM 파인튜닝을 위한 일반적인 팁__8.2.4 결과 요약_8.3 예시: GPT-2를 이용한 LaTeX 생성__8.3.1 오픈 소스 모델을 위한 프롬프트 엔지니어링__8.3.2 결과 요약_8.4 시난의 현명하면서도 매력적인 답변 생성기: SAWYER__1단계: 지시사항 파인튜닝__2단계: 보상 모델 훈련__3단계: (예상하는) 사용자 피드백 기반 강화 학습__결과 요약_8.5 끊임없이 변화하는 파인튜닝의 세계_8.6 마치며Chapter 9 LLM을 프로덕션 환경에서 사용하기_9.1 들어가는 글_9.2 클로즈드 소스 LLM을 프로덕션 환경에 배포하기__9.2.1 비용 예측__9.2.2 API 키 관리_9.3 프로덕션 환경에 오픈 소스 LLM 배포하기__9.3.1 추론을 위한 모델 준비__9.3.2 상호 운용성__9.3.3 양자화__9.3.4 가지치기__9.3.5 지식 증류__9.3.6 LLM 사용에 대한 비용 예측__9.3.7 Hugging Face에 올리기_9.4 마치며Part 4 부록APPENDIX A LLM 자주 묻는 질문(FAQ)APPENDIX B LLM 용어 해설APPENDIX C LLM 애플리케이션 개발 고려사항