logits的用法和此类标注的作用,已经再最后一层加了映射了就不需要再加入了

logits的用法和此类标注的作用,已经再最后一层加了映射了就不需要再加入了

待办

PyTorch(tensorflow类似)的损失函数中,有一个(类)损失函数名字中带了with_logits. 而这里的logits指的是,该损失函数已经内部自带了计算logit的操作,无需在传入给这个loss函数之前手动使用sigmoid/softmax将之前网络的输入映射到[0,1]之间.

https://blog.csdn.net/songyu0120/article/details/88388786

包含一些loss使用时候的,注意事项

猜你喜欢

转载自www.cnblogs.com/lishikai/p/12364599.html