[1부_ 인공지능 위험관리의 이론과 실제 적용 사례]1장 현대의 머신러닝 위험관리_1.1 법률 및 규제 환경 개요_1.2 권위 있는 모범사례_1.3 AI 사고 _1.4 머신러닝 위험관리를 위한 문화적 역량_1.5 머신러닝 위험관리를 위한 조직 프로세스_1.6 사례 연구: 질로우 아이바잉 사업의 흥망성쇠 _1.7 참고 자료2장 해석 및 설명 가능한 머신러닝_2.1 해석 가능성 및 설명 가능성에 관한 중요 아이디어_2.2 설명 가능한 모델_2.3 사후 설명_2.4 실무에서 사후 설명의 고질적 문제_2.5 설명 가능한 모델과 사후 설명의 결합_2.6 사례 연구: 알고리즘 채점_2.7 참고 자료3장 안전성과 성능을 높이는 머신러닝 시스템 디버깅_3.1 훈련_3.2 모델 디버깅_3.3 배포_3.4 사례 연구: 자율주행차 사망 사고_3.5 참고 자료4장 머신러닝 편향관리_4.1 ISO 및 NIST의 편향 정의_4.2 미국의 머신러닝 편향에 대한 법적 개념 _4.3 머신러닝 시스템의 편향을 경험하는 경향이 있는 사람_4.4 사람들이 경험하는 피해_4.5 편향 테스트_4.6 편향 완화_4.7 사례연구: 편향 버그 바운티_4.8 참고 자료5장 머신러닝 보안_5.1 보안 기초_5.2 머신러닝 공격_5.3 일반적인 머신러닝 보안 문제_5.4 대응책_5.5 사례 연구: 실제 우회 공격_5.6 참고 자료[2부_ 인공지능 위험관리 실행하기]6장 설명 가능한 부스팅 머신과 XGBoost 설명_6.1 개념 복습: 머신러닝 투명성_6.2 일반화가법모형 계열의 설명 가능한 모델_6.3 제약조건과 사후 설명이 있는 XGBoost_6.4 참고 자료7장 파이토치 이미지 분류기_7.1 흉부 엑스레이 분류 설명_7.2 개념 복습: 설명 가능한 모델과 사후 설명 기법_7.3 설명 가능한 모델_7.4 파이토치 이미지 분류기 훈련 및 설명 _7.5 결론_7.6 참고 자료8장 XGBoost 모델 선택 및 디버깅_8.1 개념 복습: 머신러닝 디버깅_8.2 더 좋은 XGBoost 모델 선택하기_8.3 XGBoost 민감도 분석_8.4 XGBoost 잔차 분석_8.5 선택한 모델 개선하기_8.6 결론_8.7 참고 자료9장 파이토치 이미지 분류기 디버깅_9.1 개념 복습: 딥러닝 디버깅_9.2 파이토치 이미지 분류기 디버깅하기_9.3 결론 _9.4 참고 자료10장 XGBoost를 사용한 편향 테스트 및 개선_10.1 개념 복습: 편향관리_10.2 모델 훈련 _10.3 모델의 편향 평가_10.4 편향 개선_10.5 결론_10.6 참고 자료 11장 레드 팀 XGBoost_11.1 개념 복습_11.2 모델 훈련_11.3 레드 팀 공격_11.4 결론_11.5 참고 자료[3부_ 결론]12장 고위험 머신러닝에서 성공하는 방법_12.1 프로젝트 참여 대상_12.2 과학 대 공학 _12.3 발표된 결과와 주장에 대한 평가 _12.4 외부 표준 적용하기_12.5 상식적인 위험완화_12.6 결론_12.7 참고 자료부록 찾아보기