单变量线性回归
-
liner regression function:
定义此假设函数
为:
h(x)=Θ0+Θ1⋅x简单的是用线性函数来拟合输入的数据集。其中
Θ0和Θ1是需要求解出的两个参数。
-
cost function:
定义此代价函数
为:
J(Θ0,Θ1)=2m1∑i=1m(h(xi)−yi)2其中
xi和yi是数据集的输入输出,而
h(xi)表示线性回归得到的估算值,这个代价函数有点类似于概率论中的平方差。。。
-
gradient descent:
定义此梯度下降算法
为:
Θj:=Θj−α⋅∂Θj∂J(Θo,Θ1) (for j=0 and j=1) %%%
:=符号表示将式子右边赋值给左边。
α表示学习速率(learning rate )。
梯度下降同时更新
Θ0和Θ1,最终找到偏微分项为零,得到
Θ0和Θ1。更新时遵循“同时赋值,同时更新”
将代价函数和假设函数带回到梯度下降算法中,就能得到具体的
Θ0和Θ1。