Tensorflow学习笔记之tf.nn.relu

Tensorflow学习笔记之tf.nn.relu
关于Tensorflow的学习笔记大部分为其他博客或者书籍转载,只为督促自己学习。

线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元。其定义如下图,在横坐标的右侧,ReLU函数为线性函数。在横坐标的左侧,ReLU函数值为0。
在这里插入图片描述
因此tf.nn.relu()的目的就是将输入小于0的值设为1,输入大于0的值不变。

猜你喜欢

转载自blog.csdn.net/qq_41989587/article/details/83273689