Logistic 回归的梯度下降法 (Logistic Regression Gradient Descent)
本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本节视频中,我将使用计算图对梯度下降算法进行计算。我必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,我认为以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从而在讨论神经网络时,你可以更深刻而全面地理解神经网络。接下来让我们开始学习逻辑回归的梯度下降算法。
假设样本只有两个特征
x1 和
x2 ,为了计算
z ,我们需要输入参数
w1 、
w2 和
b ,除此之外还有特征值
x1 和
x2 。因此
z 的计算公式为:
z=w1x1+w2x2+b 回想一下逻辑回归的公式定义如下:
y^=a=σ(z) 其中
z=wT+b, σ(z)=1+e−z1 损失函数:
L(y^(i),y(i))=−y(i)logy^(i)−(1−y(i))log(1−y^(i)) 代价函数:
J(w,b)=m1∑imL(y^(i),y(i)) 假设现在只考虑单个样本的情况,单个样本的代价函数定义如下:
L(a,y)=−(ylog(a)+(1−y)log(1−a)) 其中
a 是逻辑回归的输出,
y 是样本的标签值。现在让我们画出表示这个计算的计算图。 这里先复习下梯度下降法,
w 和
b 的修正量可以表达如下:
w:=w−α∂w∂J(w,b),b:=b−α∂b∂J(w,b)
如图:在这个公式的外侧画上长方形。然后计算:
y^=a=σ(z) 也就是计算图的下一步。最后计算损失函数
L(a,y) 。 有了计算图,我就不需要再写出公式了。因此,为了使得逻辑回归中最小化代价函数
L(a,y) ,我们需要做的仅仅是修改参数
w 和
b 的值。前面我们已经讲解了如何在单个训练样本上计算代价函数的前向步骤。现在让我们来讨论通过反向计算出导数。 因为我们想要计算出的代价函数
L(a,y) 的导数,首先我们需要反向计算出代价函数
L(a,y) 关于
a 的导数,在编写代码时,你只需要用
da 来表示
dadL(a,y) 。 通过微积分得到:
dadL(a,y)=−y/a+(1−y)/(1−a) 如果你不熟悉微积分,也不必太担心,我们会列出本课程涉及的所有求导公式。那么如果你非常熟悉微积分,我们鼓励你主动推导前面介绍的代价函数的求导公式,使用微积分直接求出
L(a,y) 关于变量
a 的导数。如果你不太了解微积分,也不用太担心。现在我们已经计算出
da ,也就是最终输出结果的导数。 现在可以再反向一步,在编写Python代码时,你只需要用
dz 来表示代价函数
L 关于
z 的导数
dzdL ,也可以写成
dzdL(a,y) ,这两种写法都是正确的。
dzdL=a−y 。 因为
dzdL(a,y)=dzdL=(dadL)⋅(dzda) , 并且
dzda=a(˙1−a) , 而
dadL=(−ay+(1−a)(1−y)) ,因此将这两项相乘,得到:
dz=dzdL(a,y)=dzdL=(dadL)⋅(dzda)=(−ay+(1−a)(1−y))⋅a(1−a)=a−y
视频中为了简化推导过程,假设
nx 这个推导的过程就是我之前提到过的链式法则。如果你对微积分熟悉,放心地去推导整个求导过程,如果不熟悉微积分,你只需要知道
dz=(a−y) 已经计算好了。
现在进行最后一步反向推导,也就是计算
w 和
b 变化对代价函数
L 的影响,特别地,可以用:
dw1=m1i∑mx1(i)(a(i)−y(i))
dw2=m1i∑mx2(i)(a(i)−y(i))
db=m1i∑m(a(i)−y(i)) 视频中,
dw1 表示
∂w1∂L=x1⋅dz ,
dw2 表示
∂w2∂L=x2⋅dz ,
db=dz 。 因此,关于单个样本的梯度下降算法,你所需要做的就是如下的事情: 使用公式
dz=(a−y) 计算
dz , 使用
dw1=x1⋅dz 计算
dw1 , 计算
dw2=x2⋅dz 计算
dw2 ,
db=dz 计算
db ,然后: 更新
w1=w1−α dw1 , 更新
w2=w2−α dw2 , 更新
b=b−α db 。 这就是关于单个样本实例的梯度下降算法中参数更新一次的步骤。
现在你已经知道了怎样计算导数,并且实现针对单个训练样本的逻辑回归的梯度下降算法。但是,训练逻辑回归模型不仅仅只有一个训练样本,而是有
m 个训练样本的整个训练集。因此在下一节视频中,我们将这些思想应用到整个训练样本集中,而不仅仅只是单个样本上。
课程PPT