アンドリュー・ウ機械学習ノートの1日目

A.教師付き学習と教師なし学習

教師付き学習:データセットへの人工アルゴリズムは、アルゴリズムによって予測値に対応したより多くのデータを与え、正しい答えです。たとえば、私たちはそれぞれのサンプルについては、このデータセット内のデータ・セットからの率は、市場データにおける調査でそれを与える、アルゴリズムの目的は、より正確な答えを与えることで、例えば、あなたの友人はそれを販売したいです新しい家は、評価を与えられました。

回帰:結果は線形である例えば住宅問題を(我々は連続値の結果を予測してみてください)

分類:結果は、離散(我々はそのような0,1のように、離散的な値の結果を予測してみてください)例えば、腫瘍の種類、特性に応じて決定されています

 

 

教師なし学習:任意のデータマーカーなしのアルゴリズムに大勢の人たち、そして最後には、クラスタリングなど、それらの構造を取得します

カクテルアルゴリズム:そのような群集のコーラスにおける所与人の声の様々な分離などの記録から2つの音源、源から分離された二つの声があります

【W、S、V] = SVD((repmat(太陽(X * X、1)、大きさ(X、1)、1)* X)* X ');

SVD:(オクターブに組み込まれている)SVDの略語

 

II。線形回帰モデル

 

訓練サンプルのM =数

X =入力変数/機能

Y =出力変数/目的変数

(X、Y)=トレーニングサンプル

(X (I)、Y (I)  )=特定の学習サンプル(i行目)

 

 関数を想定します。仮説:

H 、θ(X)=、θ 0 +θが1 * X(θ 0及びθを1はモデルパラメータです)

したがって、決定するために、θ 0およびθは図1ようJ(θその値が0、θは1)=((1 / 2M)* [シグマ(H 、θ(X)-Y)2最小、すなわち、アルゴリズムと実際の値を与えるために異なります最低

コスト関数:J(θ 0、θは1です。

 勾配降下アルゴリズム:関数Jを見つけるためのアルゴリズムの最小値

収束するまで繰り返し{

  θ JJ - α*(∂/∂θ J)・J(θ 0、θ 1)(J = 0とj = 1の場合)     

  #:割り当てのために=

  #Αは学習率と呼ばれる番号、多くの制御ステップであるとき、ステップ勾配降下、大きな値より速く秋には、常に0より大きい

       #更新への2つの必要θ(提供TEMP0、TEMP1中間変数)

 }

 (∂/∂th J)* J(I 0、I 1)=(∂/∂th J)*(1 / 2M)* S(H I(X)-Y)2

         =(∂/∂th J)*(1 / 2M)* S(I 0 + I 1 X-Y)2 

偏導関数を計算した後に得ることができる:J = 0、すなわち(θ 0):(∂/∂θ 0)J *(θ 0、θは1)=(1 / M)* [シグマ(H 、θ(X)-Y)

          J = 1、すなわち(θ 1):(∂/∂θ 。1)J *(θ 0、θは1)=(1 / M)* [シグマ[(H 、θ(X)-Y)* X]

 

上記の結果は、再びコードに持ち込ま:

収束するまで繰り返し{

  I 0  = I 0  *(1 / M)* S(H I(X)-Y)

  I 1  :Iは= 1  -    *(1 / M)* S [(H I(X)-Y)* X]

  #note:同時に更新に、θ 0及びθは1。

  #勾配降下局所最適に陥りやすいが、コストは常に線形回帰問題の関数である凸関数である、ローカルに最適な、唯一のグローバル最適ではありません、あなたは安心することができ

  バッチ#時々勾配法と呼ばれます

 }

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

エンド------------ ------------コンテンツを復元

おすすめ

転載: www.cnblogs.com/enheng123/p/11951530.html