Deep Learning with Python第二章(翻译)7未完

2.3 神经网络的用具:张量操作

很多和任何电脑程序一样能最终减少到一个在二进制输入中二进制操作的小集合(AND,OR,NOR等等),所有通过深度神经网络学习的转化可以被减少到一把应用在张量数字数据上的张量操作。例如,它可能张量相加,张量相乘等等。

在我们最初的例子中,我们通过堆叠Dense层在彼此之上来建立了我们的网络。一个Keras层的例子看上去像是这样的:

(略)

这层能被理解为一个公式,它可以输入一个2D张量并且返回另一个2D张量——一个新的输入张量表示方法。特别是,这个方程如下(这里W是一个2D张量,b是一个向量,是层的两个属性):

让我们解释它。在这里我们有三个张量操作:输入张量间点积(dot)和一个张量的名字W;一个在2D张量结果间的叠加(+)和向量名b;以及,最后,一个relu操作。relu(x)表示max(x,0)

2.3.1 元素操作

relu操作和叠加属于元素操作:独立应用于被考虑的张量的每个条目的操作。这意味着这些操作极易于大规模并行实现(矢量化实现,一个来自于1970~1990年的向量处理器超级计算机的档案结构的术语)。如果你像写简单的Python对元素操作的执行,你使用for循环,就像在这个天真的元素方式relu操作的实现:

(略)

             

               

             

             

             

             

猜你喜欢

转载自www.cnblogs.com/zzheng-blog/p/10878735.html