softmax讲解之交叉熵函数的理解与应用

https://www.zhihu.com/question/65288314/answer/244557337

https://blog.csdn.net/tsyccnh/article/details/79163834
请自行使用

根本原理:
当真实标签y等于1的时候,预测值y_hat越接近0,代价越大;
当真实标签y等于0的时候,预测值y_hat越接近1,代价越大!

猜你喜欢

转载自blog.csdn.net/QinZheng7575/article/details/106881906