tf.keras.activations.relu 激活函数 示例

import tensorflow as tf

取 0 和 x 中 最大的值

foo = tf.constant([-10, -5, 0.0, 5, 10], dtype=tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0.,  0.,  0.,  5., 10.], dtype=float32)

设置阈值为0.5

tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5,  0. ,  5. , 10. ], dtype=float32)

设置最大值为 5

tf.keras.activations.relu(foo, max_value=5.).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)

设置低于 5 取 0

tf.keras.activations.relu(foo, threshold=5.).numpy()
array([-0., -0.,  0.,  0., 10.], dtype=float32)

猜你喜欢

转载自blog.csdn.net/weixin_44493841/article/details/121492454