Where-What Network 1: “Where” and “What” Assist Each Other Through Top-down Connections笔记

Dr weng 后来的DN版本里面的idea,其实在WWN1中就已经提到过了。Attention does not only need bottom-up saliency-based cues,but also top-down target-dependant signals,这也是后来DN 中引入注意力的原因。

Q:  老板问我老版本的DN采用多层的双向连接,是如何进行更新计算的?为什么现在的DN版本抛弃的以前的多层连接?WWN1为什么输入没有用卷积这些问题?

A:我下来去Dr weng的主页下载了他public的历史paper,从 WWN1-WWN4,从里面我找到了一些灵感和答案。

对于多层WWN的更新方式,这张图里面是WWN早期版本的结构图。图中的V2可以看做是early levels of visual hierarchy.其中的两条通路,一条是V2->PP->LM ,另一条是V2->IT->TM.其中IT(Inferotemporal 翻译为颞下皮层),PP(Posterior Parietal翻译为后顶叶区)。WWN4的V2区域有局部和全局的输入,决定V2中神经元输入是全局还是局部图像取决于神经元的在V2中的location.

step1-5是具体的计算更新过程,其中X是自底向上的输入,V是自底向上的权重。 Z是自上而下的输入,M是自上而下的权重。θ是参数,作用是control sparsity and the direction of information flow.

下面这两个图对着看就可以理解什么是paired,解释paired含义见WWN3

猜你喜欢

转载自blog.csdn.net/xiqi4145/article/details/80906806