【코스】 기계 학습 : 여러 변수의 경우 주 2 Lecture1 - 그라데이션 하강

여러 변수 그라데이션 하강

문제 제기 : Week2는 하나의 변수 그라디언트 하강의 문제는 여러 변수로 설정 :

사진 이름

다음 공식은 :

사진 이름

그라데이션 하강 알고리즘

\ [{{1}을 {배열} 시작 \ \ 텍스트 {반복 수렴까지} \ {} \\ {\ theta_ {J} = \ theta_ {J} - \ 알파 \ FRAC {1} {m} \ sum_ ^ {m} {난 = 1} \ 좌측 (H \ 세타 \ 좌측 (X ^ {(I)} \ 오른쪽) -y ^ {(I)} \ 오른쪽) \ cdot X_ {J} ^ {(I) {J}의} \ 쿼드 \ 텍스트 = 0 \ ldots 단락 N}는 \\ {\}} \ 단부 {어레이} \]
也는就是:
\ [{시작 \ 어레이} {1} {\ 수렴까지 텍스트 {반복 : } \ {} \\ {\ theta_ {0} = \ theta_ {0} - \ 알파 \ FRAC {1} {m} \ sum_ ^ {m} \ 좌측 (H {내가 = 1} _ {\ 세타} \ 좌측 (X ^ {(I)} \ 오른쪽) -y ^ {(I)} \ 오른쪽) \ cdot X_ {0} ^ {(I)}} {\\ \ theta_ {1} = \ {1 theta_ } - \ 알파 \ FRAC {1} {m} \ sum_ {I = 1} ^ {m} \ 좌측 (H _ {\ 세타} \ 좌측 (X ^ {(I)} \ 오른쪽) -y ^ {(I )} \ 오른쪽) \는 X_ {1} ^ {(ⅰ)}} \\ {\ theta_ {2} cdot = \ theta_는 {2} - \는 FRAC {1} {m}는 \ sum_ {I 1 \ = 알파 } ^ {m} \ 좌측 (H _ {\ 세타} \ 좌측 (X ^ {(I)} \ 오른쪽) -y ^ {(I)} \ 오른쪽) \ cdot X_ {2} ^ {(I)}} \\ {\ cdots \\ {} \} ^ {\ cdots}} \ {말단 배열} \]
\ (\ theta_ {0} \) , \ (\ {1} theta_ \)\ (\ Theta_ 2} {\) ... 이러한 매개 변수는 갱신도해야합니다

추천

출처www.cnblogs.com/Ireland/p/12337580.html