목차
Chapter 1 통계학의 원리와 머신러닝
1.1 좋은 데이터란?
1.2 모형과 오차항의 역할
1.3 데이터의 split, weight, 그리고 resampling
1.4 통계적 머신러닝, 딥러닝, 그리고 강화학습
1.5 AI 모형과 손실함수
1.6 자료분석 절차, 모형의 요약
1.7 Data Scientist에 필요한 AI 지식
Chapter 2 사전과정과 최적화
2.1 실수자료로의 전환
2.2 자료의 특성
2.3 사례분석
2.4 불균형자료의 처리
2.5 특성변수의 선택
2.6 손실함수와 최적화
Chapter 3 데이터 시각화
3.1 AutoViz
3.2 Bamboolib
3.3 Plotly
Chapter 4 K-Nearest Neighbors
4.1 KNN의 적용
4.2 커널분포함수 추정
Chapter 5 로지스틱 회귀 분류
5.1 적응선형뉴런
5.2 로지스틱 회귀
5.3 과대적합에 대한 규제화
5.4 Scikit을 이용한 로지스틱 회귀
Chapter 6 판별분석과 단순베이즈모형
6.1 판별분석
6.2 단순베이즈모형
6.3 Scikit learn을 이용한 LDA와 단순베이즈모형
Chapter 7 분류와 회귀나무
7.1 회귀나무
7.2 분류나무
7.3 Scikit learn을 이용한 의사결정나무
Chapter 8 써포트벡터머신
8.1 써포트벡터머신
8.2 커널 SVM
8.3 Sklearn을 이용한 SVM
Chapter 9 차원축소
9.1 특잇값 분해
9.2 확률화 PCA
9.3 커널 PCA
9.4 요인분석
9.5 선형판별분석을 통한 차원축소
9.6 시각화를 위한 차원축소
9.7 Sklearn을 이용한 차원축소
Chapter 10 오차분석, 자료분할, 초모수 조절
10.1 오차분석
10.2 자료 분할
10.3 초모수 조절
10.4 교차검증
Chapter 11 회귀분석
11.1 선형회귀모형
11.2 Quantile 회귀
11.3 로버스트 회귀
11.4 SVM 회귀와 커널 SVM 회귀
11.5 규제화된 선형회귀모형
11.6 Scikit learn을 이용한 회귀분석
Chapter 12 군집
12.1 K-means 군집
12.2 계층적 군집
12.3 DBSCAN과 HDBSCAN
12.4 Scikit learn을 이용한 군집
Chapter 13 앙상블학습
13.1 Bagging, Pasting, 그리고 Random forest
13.2 앙상블학습을 위한 통계적 머신러닝의 특성
13.3 아다부스트
13.4 기울기부스팅
13.5 XGBoost
13.6 LightGBM
13.7 CatBoost
13.8 적용사례
Chapter 14 XGBoost, LightGBM, CatBoost의 비교와 특성
14.1 전통적 통계모형과의 비교: 회귀
14.2 XGBoost, LightGBM, CatBoost에서의 특성변수의 중요도와 효과
14.3 전통적 통계모형과의 비교: 분류
Chapter 15 Bagging과 Boosting
15.1 Decision Tree
15.2 Random Forest
15.3 Gradient Boosting
15.4 분류
Chapter 16 XGBoost, LightGBM, CatBoost의 초모수의 특성과 튜닝
16.1 수렴속도 비교
16.2 초모수의 비교와 튜닝
16.3 불균형자료의 처리
Chapter 17 메타모형과 모형자동화
17.1 메타모형
17.2 모형의 자동화
Chapter 18 감성분석
18.1 감성분석
18.2 파이썬을 이용한 사례 분석
참고문헌
연습문제 해설
찾아보기