Understanding Convolutions/理解卷积(3)

对应上面的问题:
                                                         y_0 = \delta (w_0 * x_0 + w_1 * x_1 - b)

                                                         y_1 = \delta (w_0 * x_1 + w_1 * x_2 - b)

所以,一个不同权重联系每个输入与每个神经元的权重矩阵:

                                                        W = \begin{Bmatrix} W_0_,_0&W_0_,_1&W_0_,_2 &W_0_,_3 & ...\\ W_1_,_0& W_1_,_1 & W_1_,_2 &W_1_,_3 & ..\\ W_2_,_0&W_2_,_1 &W_2_,_2 &W_2_,_3 &... \\ W_3_,_0&W_3_,_0 &W_3_,_0 &W_3_,_0 & ...\\ ...&... &... &... &... \end{Bmatrix}

像上面的卷积看以来很很不一样的。相同的权重一串位置上,因为神经元不是一定连接高数量的输入,有很多0.
                                                      W = \begin{Bmatrix} W_0&W_1& 0 &0 & ...\\ 0& W_0 & W_1 &0 & ..\\ 0&0 &W_0 &W_1 &... \\ 0&0 &0 &W_0 & ...\\ ..&...&... &... &... \end{Bmatrix}

通过与上面的矩阵想乘 同和\begin{bmatrix} ..0 &w_1 &w_0 &0... \end{bmatrix} 卷积是一样的。函数将滑动到对应有神经元存在不同位置。    

 /**博客限制,空间不足,下一篇续**/    

猜你喜欢

转载自blog.csdn.net/liubin192837/article/details/81175561
今日推荐