dense问题?——tf.layers.dense & keras.layers.Dense

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/SPESEG/article/details/102681654

说实话这俩玩意其实是一个,我看了源码,发现都是Dense类创建了,但实际应用中效果却不同。

因为Dense大多数是用于shape为(batch,dim)的全连接问题,但不能直接用于shape为(batch,time_stpes,dim)的全连接问题,如果直接套用,输出结果直接就是shape为(batch,units),time_steps维度就没有了,真是可怕。

所以我自己实现的dense是每个time_step都进行一个Dense,最后再concat在一起,但这样的效果不知道为啥很差,同样我自己采用乘法进行的dense结果也不行,没有采用tf.layers.dense的效果好,不知道是为何?

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/102681654