线性回归(linear regression)
梯度下降(gradient descent)
通过不断迭代使得cost function最小化,选择出我们需要的parameter
hypothesis:
cost function:
update:
- learning rate
α 的选择:α 大,收敛快,但可能会发散;α 小,收敛慢。所以不同的α 值,做实验,画出cost function与iteration的函数图,看哪个α 既使cost function下降快,又不会发散或振荡 - 加快收敛:特征缩放(feature scaling)、均值归一化(mean normalization)
标准方程(normal equation)
一步得到parameter
求解方法
todo:推导该式子
对比梯度下降和标准方程:
梯度下降 | 标准方程 |
---|---|
需要选择
|
不需要选择
|
需要迭代 | 不需要迭代 |
在
|
因为需要计算
|