tf.one_hot()进行独热编码

tf.one_hot()进行独热编码

首先肯定需要解释下什么叫做独热编码(one-hot encoding),独热编码一般是在有监督学习中对数据集进行标注时候使用的,指的是在分类问题中,将存在数据类别的那一类用X表示,不存在的用Y表示,这里的X常常是1, Y常常是0。,举个例子:
比如我们有一个5类分类问题,我们有数据 (xi,yi) ,其中类别 yi 有五种取值(因为是五类分类问题),所以如果 yj 为第一类那么其独热编码为:
[1,0,0,0,0] ,如果是第二类那么独热编码为: [0,1,0,0,0] ,也就是说只对存在有该类别的数的位置上进行标记为1,其他皆为0。这个编码方式经常用于多分类问题,特别是损失函数为交叉熵函数的时候。接下来我们再介绍下TensorFlow中自带的对数据进行独热编码的函数tf.one_hot(),首先先贴出其API手册:

one_hot(
    indices,
    depth,
    on_value=None,
    off_value=None,
    axis=None,
    dtype=None,
    name=None
)

需要指定indices,和depth,其中depth是编码深度,on_valueoff_value相当于是编码后的开闭值,如同我们刚才描述的X值和Y值,需要和dtype相同类型(指定了dtype的情况下),axis指定编码的轴。这里给个小的实例:

var = tf.one_hot(indices=[1, 2, 3], depth=4, axis=0)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    a = sess.run(var)
    print(a)

输出

[[ 0.  0.  0.]
 [ 1.  0.  0.]
 [ 0.  1.  0.]
 [ 0.  0.  1.]]

因为向axis=0轴进行编码,depth为4,相当于是朝着列方向扩展的。
axis改为1之后,为:

[[ 0.  1.  0.  0.]
 [ 0.  0.  1.  0.]
 [ 0.  0.  0.  1.]]

猜你喜欢

转载自blog.csdn.net/loseinvain/article/details/78819390