Machine Learning---liner regression of one value

单变量线性回归

  • liner regression function:
    定义此假设函数为: h ( x ) = Θ 0 + Θ 1 x h(x)=\Theta_0+\Theta_1\cdot x 简单的是用线性函数来拟合输入的数据集。其中 Θ 0 Θ 1 \Theta_0和\Theta_1 是需要求解出的两个参数。

  • cost function:
    定义此代价函数为: J ( Θ 0 , Θ 1 ) = 1 2 m i = 1 m ( h ( x i ) y i ) 2 J(\Theta_0,\Theta_1)=\frac{1}{2m}\sum_{i=1}^{m}{(h(x^i)-y^i)^2} 其中 x i y i x^i 和y^i 是数据集的输入输出,而 h ( x i ) h(x^i) 表示线性回归得到的估算值,这个代价函数有点类似于概率论中的平方差。。。

  • gradient descent:
    定义此梯度下降算法为: Θ j : = Θ j α Θ j J ( Θ o , Θ 1 ) \Theta_j:=\Theta_j-\alpha\cdot\frac{\partial }{\partial \Theta_j}J(\Theta_o,\Theta_1) (for j=0 and j=1) %%% :=符号表示将式子右边赋值给左边。 α \alpha 表示学习速率(learning rate )。
    梯度下降同时更新 Θ 0 Θ 1 \Theta_0和\Theta_1 ,最终找到偏微分项为零,得到 Θ 0 Θ 1 \Theta_0和\Theta_1 。更新时遵循“同时赋值,同时更新”

将代价函数和假设函数带回到梯度下降算法中,就能得到具体的 Θ 0 Θ 1 \Theta_0和\Theta_1

猜你喜欢

转载自blog.csdn.net/qq_36770565/article/details/88921301