스샷은 잠시 시원하고 화장터==,
2. yes_no로 대답하는 법 배우기
P6 2.1
x = (x1,x2, … xd)는 사용자의 다양한 특성을 나타내고, 임계값은 임계값
y = { +1(양호), -1(나쁨) }을 나타내며, 0인 경우는 드물고, 의미
h ∈ H
h(x) = sign(summation(1~d)wi xi - threshold)
= sign(summation(0~d)wi xi) 참고: x0 = 1 , w0 = 임계값
h(x ) can o(+1)과 x(-1)을 나누는 직선을 나타냅니다
. 내가 그릴 수 없다고?))
P7 2.2 2차원 평면에서 다음과 같이
D에 g ≈ f를 만들어 보십시오 .
f에 가장 잘 맞는 라인을 찾아야 합니다.
그런 아이디어가 있다(PLA):
(퍼셉트론 학습 알고리즘 퍼셉트론 학습 알고리즘)
라인 g0에서 시작하여 천천히 개선하는 방법을 찾고,
t는 t번째 라운드를 나타내고, 오류가 있을 때 wt+를
수정하기 시작합니다. 1 ←
wt + yn(t) xn(t)
오류가 발견되지 않을 때까지
(오류를 알면 알고리즘이 향상될 수 있음)
[질문: y x가
일부 URL을 찾는 이유 : https://zhuanlan.zhihu.com/p/30641772
Dr. B국 동방도 댓글을 달았는데 이해가 안되네요]
! w와 x 사이의 각도가 90°보다 크거나
w0, x0, y0이 처음에 있다고 가정하면 y는 -1 또는 1입니다.
그런 다음 w0 내적(또는 내적) x0 < 0, 부호( w0 · x0) = -1, 이때 y0이 +1이면
위의 그림과 같이 부호(w0 x0)!= y0 (부호함수는 백과사전 을
모른다)
번역하면 점선 이고 w0+x0(점선)은 보라색을 얻습니다: w0 + y0x0, 즉 w0+x0은 새로운 w가 되어 w1로 기록됩니다. , w1과 x0 사이의 각도는
<90°이고 내적은 자연스럽습니다> 0, sign(w1*x0) = 1 = y0
w가 성공적으로 업데이트된 다음 생각의 흐름을 따라 계속 업데이트될 때까지 계속 업데이트됩니다. 데이터가 잘못 분류되지 않습니다
참고로 선분할(분홍색과 파란색분할)할 때 선의 방향은 w방향과 수직이다. 예각
. , 둔각은 X이므로 분할선은 90도 방향
실수를 알고 알고리즘을 바꾸는 것에 대해:
이 방법이 멈출까요?
중지 후 결정된 g가 실제로 f에 잘 맞습니까
(아마도 훈련 세트에 맞을 것임)
연습문제 답:
3을 선택하세요. 왜냐하면 wt+1 = wt + yn xn 에 왼쪽과 오른쪽에 yn xn이 곱해지기 때문입니다. 그러면
yn *wt+1(T) xn >= yn wt(T) xn
임을 알 수 있습니다. 이 공식은 Lesson 6을 나타냅니다. 공식 w x, 점수-임계값은 yn에 후자보다 앞쪽에 더 적합하며 업데이트된 g가 실제로 f에 가깝다는 것을 나타냅니다.
P8 2.3
PLA의 수렴 증명:
마지막으로 실습에서 PLA의 수렴을 증명하는 상수는 무엇
입니까
? , 상수는 = p/ R^2와 같습니다.
P9 2.4
노이즈가 있거나 데이터가 선형적으로 분리되지 않는 경우 PLA가 중지되지 않을 수 있습니다.
특히 데이터가 선형으로 분리되지 않는 경우 PLA가 중지되지 않습니다.
2차원 그래프에서 오차가 가장 적은 선을 찾아라
이것은 풀기 어려운 np hard problem이다
그러므로 좋은 선을 찾기 위한 탐욕적인 접근법을 찾아라:
욕심쟁이 PLA를 이용하여 (주머니) 풀고, 실행 특정 횟수만큼 가장 잘 알려진 w 찾기