Andrew Ng's Coursera Machine Leaning(ML) Notes Week 4

Andrew Ng’s Coursera Machine Leaning(ML) Notes Week 4

Author: Yu-Shih Chen
December 22, 2018 6:55 PM

Intro:
本人目前是在加州上大学的大二生,对人工智能和数据科学有浓厚的兴趣所以在上学校的课的同时也喜欢上一些网课。主要目的是希望能够通过在这个平台上分享自己的笔记来达到自己更好的学习/复习效果所以notes可能会有点乱,有些我认为我自己不需要再复习的内容我也不会重复。当然,如果你也在上这门网课,然后刚好看到了我的notes,又刚好觉得我的notes可能对你有点用,那我也会很开心哈哈!有任何问题或建议OR单纯的想交流OR单纯想做朋友的话可以加我的微信:y802088

Week3

Note:Neural Network说实话本人还不是特别了解,所以以后可能还会继续加内容。

大纲:

  • Model Representation I
  • Model Representation II
  • Examples and Intuitions I
  • Examples and Intuitions II
  • Multiclass Classification

Model Repersentaion

这个section简单的介绍了一下neural network的构造,表达方式和idea。
在这里插入图片描述
跟之前一样,我们需要X,y,和h_x也就是我们的预测值,但是这里就好像得到我们的h_x之前要先穿过几层“筛选”一样。
如图:
在这里插入图片描述
以下是这个课程用的一些notation
在这里插入图片描述
如图所示,现在我们每一层都会有不同的theta,每过一层
在这里插入图片描述
需要注意的一点:每一层的theta的大小可以用一个公式得到:

  • 当前层nodes数量= sj
  • 下一层nodes数量=s(j+1)
  • 当前层theta大小= s(j+1) x (sj + 1)
  • 举个栗子:如果第一层有2个input nodes,然后第二层有4个activation nodes,那第一层的theta = 4 x
    (2+1) = 4x3
    这个很重要,因为要使用这个去 initialize我们的theta。

section重点:Neural Network就像一层层等的筛选一样,得到最后的h_x。

how did we choose weights? Theta1 and Theta 2

Model Representation II

这个section会讲到如何去用第一层的X和theta去推算剩下的层的activation unit。
在这里插入图片描述
基本上就是用第一层的X和theta得到我们图里写的’z’,然后记得要放到sigmoid里,就可以得到下一层的’a’了,然后再用第二层的a和第二层的theta得到z,然后sigmoid,然后blahblahblah…最后就会得到一个数值。

section重点:每层的’a’ 或者说’X’的推算方法。

Multiclass Classification

在这里插入图片描述
这是一个Object Detection的例子。通过neural network和One-vs-all algorithm,可以达到multiclass的hypothesis。

Implementation Notes:
在这里插入图片描述
在implement的时候,要将我们的y做成这样的vectors来代表y = 1,2,3,4…
最后得到的结果可能是:
在这里插入图片描述
也就是这次predict的是object y = 3。

猜你喜欢

转载自blog.csdn.net/weixin_44165766/article/details/85272110