【AI-1000问】你知道为什么GoogLeNet也被称为InceptionNet吗?

文章首发于微信公众号《有三AI》

【AI-1000问】你知道为什么GoogLeNet也被称为InceptionNet吗?

往期视频(前往公众号观看)

GoogLeNet为什么也被称为InceptionNet?

我们都知道在2014年ILSVRC 比赛中GoogLeNet获得了冠军,其所用模型参数不足AlexNet(2012年冠军)的1/12,但性能却比AlexNet好不少。我们从其论文题目《Going deeper with convolutions》中的deeper也能明白它的贡献,deeper有两层含义,一是指其引入了一种新的结构“Inception module”,二就是其直接含义——网络深度(depth)的增加。今天【AI-1000问】第六问,我们就聊聊GoogLeNet为什么也被称为InceptionNet?

作者/编辑 汤兴旺

大家还记得多年前,那一部超级烧脑的电影《inception》吗?如果这个名字不熟悉,那么《盗梦空间》你应该还记得吧!

Dom Cobb(由莱昂纳多·迪卡普里奥饰演)与Robert Fischer(由Cillian Murphy饰演)对话时的那一句:“We need to go deeper”,可谓是引发高潮。讲述的就是如何在某人心中植入思想,寓意进行更深刻的感知。

我们知道AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,所以早期设计网络的时候,自然也是走这样的路线,从LeNet的7层,到AlexNet的8层,VGG的16层,19层。不过层数的增加也会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。

GoogLeNet是2014年的分类比赛冠军,网络达到了22层,参数量为5M,核心就是Inception模块,名字的来源主要便是上面的“inception”, 寓意一个比以前的网络都更深的网络,当然这实际上还是一个多尺度,“更宽”的网络设计,结构如下:

因此我们也把GoogLeNet称做InceptionNet,毕竟GoogLet是第一个提出InceptionNet的。

思考

你对GoogLeNet为什么也被称为InceptionNet理解了吗?另外如果你想更深入的了解InceptionNet,请看我们的往期文章【模型解读】GoogLeNet中的inception结构,你看懂了吗,另外,GoogLeNet中的L,为什么是大写而不是Google的小写,你知道吗?

转载文章请后台联系

侵权必究

更多请关注知乎专栏《有三AI学院》

猜你喜欢

转载自blog.csdn.net/hacker_long/article/details/88431958