tensorflow模型继续训练??

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/SPESEG/article/details/102686651

之前训练的模型没有收敛就结束了,再次训练,增加训练次数是不是就会收敛了?

有时,网上的参考答案并不能解决问题,因为每个人的细节不同,总有些关键细节问题决定成败。我的模型训练时的步骤有global_step,这个玩意是记录/标记ckpt的,表示哪一步产生的模型,我估计这个参数在模型中也保存了,因为我定义的是

global_step = tf.Variable(0, dtype=tf.int32, trainable=False, name='global_step')#从0开始

并且在optimizer的定义中也用到了这个玩意,所以restore恢复模型时估计将这个也恢复了,所以

for step in range(global_step.eval(), FINAL_STEP):

直接就结束了,因为这两个数字是一样的:

>>> for i in range(100,100):
	print(i)
>>> 

所以训练步骤没有执行,因此只要将第一个数自己改成0即可训练。

至于这个global_step,其实也是参看网上的模型直接搬过来的,谁知道他这个玩意有个坑啊??!!

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音深度学习及信号处理群

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/102686651