版权声明:本文为博主原创文章,未经博主允许不得转载。转载请注明出处,并告知本人 https://blog.csdn.net/the_conquer_zzy/article/details/83508519
弄清以下问题的含义:
1.
tf.train.global_step
获取全局训练步数, 由 各种损失函数优化器中的minimize()
方法负责自动加1
sess.run(
fetches,
feed_dict=None,
options=None,
run_metadata=None
)
-
fetches: A single graph element, a list of graph elements, or a
dictionary whose values are graph elements or lists of graph elements
(described above). -
feed_dict: A dictionary that maps graph elements
to values (described above). -
options: A [RunOptions] protocol buffer
-
run_metadata: A [RunMetadata] protocol buffer
翻译一下: fetchs 是一个[] ,字典中的元素是计算图中定义的元素,
feed_dict用来提供输入参数
- word embedding 与one-hot 相比是连续的,可以表达出词与词之间的联系。 word2vec 可以高效获得 word embedding 。 有两种模型,一个叫CBOW,还有一个skip-gram 。 CBOW适用于小型数据,采用根据上下文预测目标词。 而skip-gram 适用大型数据集 使用目标词推测上下文
神经网络模型的结果使用 one-hot vector来表示