逻辑回归的三个重要内容:
1、初始化参数
2、计算cost函数和梯度
3、优化算法(梯度下降)
相互之间的关系,每个函数需要什么参数,输出什么参数都要比较清楚,解决了这三个问题思路就会很清晰了,嘿!
开始把!仔细捋一遍逻辑回归的实现过程!
1、初始化参数
逻辑回归对参数的初始化很容易,直接都是0就好了,其中w的维度是(num_px*num_px*3,1),b=0。
传入参数:num_px*num_px*3
return:w,b
w = np.zeros(dim).reshape(dim,1) 注:np.zeros()之后是一维的,要reshape()一下
2、计算cost函数和梯度
这一部分基本包括了正向传播和反向传播的全过程。
传入参数:w,b,训练集X,Y
return:梯度(dw,db),cost
3、梯度下降算法
传入参数:w,b,X,Y,迭代次数,学习率
return:学习后的参数(w,b),学习后的梯度(dw,db),数组costs(每100次学习后的cost)
4、预测函数,根据已经学习好的w,b判断X测试集的结果,用于计算正确率
传入:w,b,X
return:Y_prediction
6、整合:
初始化w,b
用训练集优化w,b
测试测试集
传入:训练集,测试集,学习次数,学习率