图解机器学习笔记(三)

今天,我会介绍新看到的一个非线性模型,层级模型。
与前面的线性模型相比,这里的基函数多了一个学习参数beta 。以Phi使用高斯函数为例,前面的介绍的话,高斯函数的均值使用的是样本值,而且标准差也是一个固定数,这里均值和标准差都成为了学习参数。

归纳:
通过最小二乘法后(其实有留意我另外写的博客文章 Andrew Note的话,知道这个是square error cost function),我对机器学习有了一个更加大概的模糊印象。以下是我个人的一点感悟

通常在解决回归问题时,我们需要做的是两件事。首先,选择好模型,是线性模型还是非线性模型进行拟合,线性模型里面我们选择哪个作为基函数呢?除此以外,我们需要选好学习方法,是最小二乘法呢还是其它的。然后开始学习。通常这个解法不能引起维度灾难(维度灾难是指:输入参数的维度增加,计算指数级增长的恐怖事情),然后解的过程就是多种多样了,像Andrew 里面介绍的方法是gradient decent 解最小二乘 。 

猜你喜欢

转载自blog.csdn.net/frostmonarch/article/details/79713288