tensorflow学习笔记各个函数解析

版权声明:本文为博主原创文章,未经博主允许不得转载。转载请注明出处,并告知本人 https://blog.csdn.net/the_conquer_zzy/article/details/83508519

弄清以下问题的含义:
1.

tf.train.global_step

获取全局训练步数, 由 各种损失函数优化器中的minimize()方法负责自动加1

 sess.run(
    fetches,
    feed_dict=None,
    options=None,
    run_metadata=None
)
  • fetches: A single graph element, a list of graph elements, or a
    dictionary whose values are graph elements or lists of graph elements
    (described above).

  • feed_dict: A dictionary that maps graph elements
    to values (described above).

  • options: A [RunOptions] protocol buffer

  • run_metadata: A [RunMetadata] protocol buffer

翻译一下: fetchs 是一个[] ,字典中的元素是计算图中定义的元素,
feed_dict用来提供输入参数

  • word embedding 与one-hot 相比是连续的,可以表达出词与词之间的联系。 word2vec 可以高效获得 word embedding 。 有两种模型,一个叫CBOW,还有一个skip-gram 。 CBOW适用于小型数据,采用根据上下文预测目标词。 而skip-gram 适用大型数据集 使用目标词推测上下文

神经网络模型的结果使用 one-hot vector来表示

猜你喜欢

转载自blog.csdn.net/the_conquer_zzy/article/details/83508519