나랑 수박 먹어요 책 | 매우 이해하기 쉽습니다 | 기계 학습 | Zhou Zhihua

여기를 보아라! 지나가다 보면 놓치지 마세요! ! !
뉴비들이 알아야 할 것: 나랑 수박책 먹어요

수박책의 주요 내용은 다음과 같습니다.

Chapter 1 서론
1.1 서론(P1)
1.2 기본 용어(P2)
1.3 가설 공간(P4 )
1.4 귀납적 선호도(P6)
1.5 개발 과정(P10)
1.6 적용 현황(P13)
1.7 읽을 자료(P16)

Chapter 2 모델 평가 및 선택
2.1 경험적 오류 및 과적합(P23)
2.2 평가 방법(P24)
  2.2.1 홀드아웃 방법
  2.2.2 교차 검증 방법
  2.2.3 부트스트랩 방법
2.3 성능 측정
  2.3.1 오류율 및 정밀도(P29)
  2.3 .2 정밀도, 재현율 및 F1
  2.3.3 ROC 및 AUC (P33)
  2.3.4 비용에 민감한 오류율 및 비용 곡선
2.4 비교 테스트
  2.4.1 가설 테스트 (P37)
  2.4.2 교차 검증 t 테스트 (P40 )
  2.4.3 McNemar 검정(P41)
  2.4.4 Friedman 검정 및 Nemenyi 추적 검정(P42)
2.5 편차 및 분산(P44)
2.6 읽기 자료(P46)

Chapter 3 선형모형
3.1 기본형 (P53)
3.2 선형회귀
3.3 대수확률회귀 (P57)
3.4 선형판별분석 (P60)
3.5 다중분류학습 (P63)
3.6 범주불균형 문제 (P66)
3.7 읽을거리 (P67)

Chapter 4 결정 트리
4.1 기본 프로세스 (P73)
4.2 파티션 선택 (P75)
  4.2.1 정보 획득
  4.2.2 이득 비율 (P77)
  4.2.3 지니 지수 (P79)
4.3 가지치기 처리
  4.3.1 사전 가지치기 (P79 )
  4.3 .2 사후 가지치기(P82)
4.4 연속값과 결측값
  4.4.1 연속값 처리(P83)
  4.4.2 결측값 처리(P85)
4.5 다변량 의사결정나무(P88)
4.6 자료 읽기(P92)

Chapter 5 신경망
5.1 뉴런 모델(P97)
5.2 퍼셉트론과 다층 네트워크(P98)
5.3 오류 역전파 알고리즘(P101)
5.4 전역 최소값과 로컬 최소값(P106)
5.5 기타 일반 신경망(P108)
  5.5.1 RBF 네트워크
  5.5.2 ART(네트워크)
  5.5.3 SOM 네트워크(P109)
  5.5.4 캐스케이드 상관 네트워크(P110)
  5.5.5 엘만 네트워크
  5.5.6 볼츠만 머신(P111)
5.6 딥러닝(P113)
5.7 독서자료(P115)

Chapter 6 서포트 벡터 머신
6.1 마진과 서포트 벡터 (P121)
6.2 이중 문제 (P123)
6.3 커널 함수 (P126)
6.4 소프트 마진과 정규화 (P129)
6.5 서포트 벡터 회귀 (P133)
6.6 커널 방법 (P137)
6.7 읽을 자료( P139)

Chapter 7 베이즈 분류기
7.1 베이지안 결정 이론(P147)
7.2 최대 가능성 추정(P149)
7.3 나이브 베이즈 분류기(P150)
7.4 세미-나이브 베이즈 분류기(P154)
7.5 베이 스리랑카 네트워크(P156)
  7.5.1 구조(P157)
  7.5 .2 학습(P159)
  7.5.3 추론(P161)
7.6 EM 알고리즘(P162)
7.7 읽기 자료(P164)

Chapter 8 앙상블 학습
8.1 개별 및 앙상블(P171)
8.2 부스팅(P173)
8.3 배깅 및 랜덤 포레스트(P178)
  8.3.1 배깅
  8.3.2 랜덤 포레스트(P179)
8.4 조합 전략(P181)
  8.4.1 평균 방법
  8.4.2 투표 방법(P182)
  8.4.3 학습 방법
8.5 다양성
  8.5.1 오류-발산 분해(P185)
  8.5.2 다양성 측정(P186)
  8.5.3 다양성 향상(P188)
8.6 독서 자료(P190)

Chapter 9 클러스터링
9.1 클러스터링 작업(P197)
9.2 성능 측정
9.3 거리 계산(P199)
9.4 프로토타입 클러스터링(P202)
  9.4.1 k-평균 알고리즘
  9.4.2 학습 벡터 양자화(P204)
  9.4.3 가우스 혼합 클러스터링(P206)
9.5 밀도 클러스터링(P211)
9.6 계층적 클러스터링(P214)
9.7 읽기 자료(P217)

Chapter 10 차원 축소 및 메트릭 학습
10.1 k 최근접 이웃 학습(P225)
10.2 저차원 임베딩(P226)
10.3 주성분 분석(P229)
10.4 커널 선형 차원 축소(P232)
10.5 다양체 학습(P234)
  10.5.1 등 메트릭 매핑 (P234)
  10.5.2 로컬 선형 임베딩 (P235)
10.6 메트릭 학습 (P237)

11장 특징 선택 및 희소 학습
11.1 부분 집합 검색 및 평가(P257)
11.2 필터 선택(P249)
11.3 래핑 선택(P250)
11.4 포함 선택 및 L1 정규화(P252)
11.5 희소 표현 및 사전 학습(P254)
11.6 압축 예측(P257) )
11.7 읽기 자료 (P260)

Chapter 12 컴퓨팅 학습 이론
12.1 기본 지식 (P267)
12.2 PAC 학습 (P268)
12.3 제한된 가설 공간
  12.3.1 분리 가능한 상황 (P270)
  12.3.2 분리 불가능한 상황 (P272)
12.4 VC 차원 (P273)
12.5 Rademacher 복잡성 (P279)
12 .6 안정성(P284)
12.7 읽기 자료(P287)

Chapter 13 반지도 학습
13.1 레이블이 지정되지 않은 샘플(P293)
13.2 생성 방법(P295)
13.3 반지도 SVM(P298)
13.4 그래프 반지도 학습(P300)
13.5 불일치 기반 방법(P304)
13.6 반지도 클러스터링(P307 )
13.7 독서자료 (P311)

Chapter 14 확률 그래픽 모델
14.1 은닉 마르코프 모델(P320)
14.2 마르코프 무작위 필드(P322)
14.3 조건부 무작위 필드(P325)
14.4 학습 및 추론
  14.4.1 변수 제거(P328)
  14.4.2 신념 전파(P330)
14.5 근사 추론
  14.5 .1 MCMC 샘플링(P331)
  14.5.2 변형 추론(P334)
14.6 주제 모델(P337)
14.7 읽기 자료(P339)

Chapter 15 규칙 학습
15.1 기본 개념 (P347)
15.2 순차적 커버링 (P349)
15.3 가지치기 최적화 (P352)
15.4 1차 규칙 학습 (P354)
15.5 귀납적 논리 프로그래밍 (P357)
  15.5.1 최소 일반 일반화 (P358)
  15.5.2 역축소(P359)
15.6 독서자료(P363)

Chapter 16 강화학습
16.1 과제와 보상(P372)
16.2 K-Arm 도박 기계
  16.2.1 탐색과 활용(P373)
  16.2.2 ε-Greedy(P374)
  16.2.3 Softmax(P375)
16.3 모델 학습
  16.3 .1 정책 평가 (P377)
  16.3.2 정책 개선 (P379)
  16.3.3 정책 반복 및 가치 반복 (P381)
16.4 모델 없는 학습 (P382)
  16.4.1 몬테카를로 강화 학습 (P383)
  16.4.2 시간차 학습 (P386)
16.5 가치함수 근사(P388)
16.6 모방학습(P390)
  ​​​​16.6.1 역강화학습(P391)
16.7 읽기자료(P393)

부록
A 행렬
  A.1 기본 계산(P399)
  A.2 미분(P400)
  A.3 특이값 분해(P402)
B 최적화
  B.1 라그랑주 승수법(P403)
  B.2 2차 계획법(P406 )
  B.3 양수 준정의 법칙(P407)
  B.4 경사하강법
C 확률 분포
  C.1 공통 확률 분포(P409)
    C.1.1 균등 분포
    C.1.2 베르누이 분포
    C.1.3 이항 분포
    C.1.4 기타 항 분포
    C.1.5 베타 분포(P411)
    C.1.6 디리클레 분포
    C.1.7 가우스 분포
  C.2 공액 분포(P413)
  C.3 KL 발산(P414)

참고자료:

  1. https://mp.weixin.qq.com/mp/appmsgalbum?__biz=Mzg5NjE1NTc1OA==&action=getalbum&album_id=3026152859105230849&scene=173&from_msgid=2247484508&from_itemidx=1&count=3&nolastread=1#wechat_redirect
  2. https://blog.csdn.net/Nagato_Yuki_SOS/article/details/107821077

추천

출처blog.csdn.net/weixin_43843918/article/details/131907349