기계 학습 기반에 대한 Lin Xuantian의 노트(2)

스샷은 잠시 시원하고 화장터==,

2. yes_no로 대답하는 법 배우기

P6 2.1
x = (x1,x2, … xd)는 사용자의 다양한 특성을 나타내고, 임계값은 임계값
y = { +1(양호), -1(나쁨) }을 나타내며, 0인 경우는 드물고, 의미
h ∈ H
h(x) = sign(summation(1~d)wi xi - threshold)
= sign(summation(0~d)wi
xi) 참고: x0 = 1 , w0 = 임계값
h(x ) can o(+1)과 x(-1)을 나누는 직선을 나타냅니다
여기에 이미지 설명 삽입
여기에 이미지 설명 삽입
여기에 이미지 설명 삽입
. 내가 그릴 수 없다고?))

P7 2.2 2차원 평면에서 다음과 같이
D에 g ≈ f를 만들어 보십시오 .

f에 가장 잘 맞는 라인을 찾아야 합니다.

그런 아이디어가 있다(PLA):
(퍼셉트론 학습 알고리즘 퍼셉트론 학습 알고리즘)
라인 g0에서 시작하여 천천히 개선하는 방법을 찾고,
t는 t번째 라운드를 나타내고, 오류가 있을 때 wt+를
수정하기 시작합니다. 1 ←
wt + yn(t) xn(t)
오류가 발견되지 않을 때까지
(오류를 알면 알고리즘이 향상될 수 있음)
[질문: y x가
일부 URL을 찾는 이유 : https://zhuanlan.zhihu.com/p/30641772
Dr. B국 동방도 댓글을 달았는데 이해가 안되네요]
여기에 이미지 설명 삽입
! w와 x 사이의 각도가 90°보다 크거나
w0, x0, y0이 처음에 있다고 가정하면 y는 -1 또는 1입니다.
그런 다음 w0 내적(또는 내적) x0 < 0, 부호( w0 · x0) = -1, 이때 y0이 +1이면
위의 그림과 같이 부호(w0
x0)!= y0 (부호함수는 백과사전
모른다)
번역하면 점선 이고 w0+x0(점선)은 보라색을 얻습니다: w0 + y0x0, 즉 w0+x0은 새로운 w가 되어 w1로 기록됩니다. , w1과 x0 사이의 각도는
<90°이고 내적은 자연스럽습니다> 0, sign(w1*x0) = 1 = y0
w가 성공적으로 업데이트된 다음 생각의 흐름을 따라 계속 업데이트될 때까지 계속 업데이트됩니다. 데이터가 잘못 분류되지 않습니다
여기에 이미지 설명 삽입
참고로 선분할(분홍색과 파란색분할)할 때 선의 방향은 w방향과 수직이다. 예각
. , 둔각은 X이므로 분할선은 90도 방향

실수를 알고 알고리즘을 바꾸는 것에 대해:
이 방법이 멈출까요?
중지 후 결정된 g가 실제로 f에 잘 맞습니까
(아마도 훈련 세트에 맞을 것임)

연습문제 답:
3을 선택하세요. 왜냐하면 wt+1 = wt + yn xn 에 왼쪽과 오른쪽에 yn xn이 곱해지기 때문입니다. 그러면
yn *wt+1(T) xn >= yn wt(T) xn
임을 알 수 있습니다. 이 공식은 Lesson 6을 나타냅니다. 공식 w x, 점수-임계값은 yn에 후자보다 앞쪽에 더 적합하며 업데이트된 g가 실제로 f에 가깝다는 것을 나타냅니다.

P8 2.3
PLA의 수렴 증명:
여기에 이미지 설명 삽입
여기에 이미지 설명 삽입
마지막으로 실습에서 PLA의 수렴을 증명하는 상수는 무엇
입니까
? , 상수는 = p/ R^2와 같습니다.

P9 2.4
노이즈가 있거나 데이터가 선형적으로 분리되지 않는 경우 PLA가 중지되지 않을 수 있습니다.
특히 데이터가 선형으로 분리되지 않는 경우 PLA가 중지되지 않습니다.

2차원 그래프에서 오차가 가장 적은 선을 찾아라
이것은 풀기 어려운 np hard problem이다
여기에 이미지 설명 삽입
그러므로 좋은 선을 찾기 위한 탐욕적인 접근법을 찾아라:
욕심쟁이 PLA를 이용하여 (주머니) 풀고, 실행 특정 횟수만큼 가장 잘 알려진 w 찾기
여기에 이미지 설명 삽입

추천

출처blog.csdn.net/Only_Wolfy/article/details/89354827