【社招面试】虎扑旗下毒app面试

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_20095389/article/details/87975098

不想说什么丧气的话,互联网寒冬只会把没有能力的水军淘汰下去。

工作了大半年,渐渐觉得深度学习像是漂浮在空中,理论支撑的薄弱,和戏称为调参侠的我们,让我渐渐失去了方向,不知道当初毕业一门心思找算法工程师的坚持是不是正确。不想说什么了,只想说好好找好方向,夯实自己的能力。

不知道未来会走向何方,想要在这个人工智能大潮流中转行的我,不知道会不会被一众网友嘲笑。

进正题

毒app在虹口足球场附近,办公外面的环境是可以的,办公就一层,各个小房间,内部布局我个人不是很喜欢,白的晃眼。

面试分两面,技术面 + HR面,因为现在缺人,正在扩招中,才给我这个工作经验不足的人机会吧。

1、技术面

网易挖来的推荐算法大神,很巧,我们一个学校,一个家乡的,很佩服他,虽然没有共事过,但是从问的问题上可以看出是个踏实做技术的大神,思考很有深度。

由于工作经验太短,他直接说面基础,真的超难

1、CNN自己的理解
大概就是提特征,空域上将图像信息整合,拓宽视野,整合不同通道的图形特征等。

2、为什么用logistics,不用其他的线性函数?
我说是可以归一到0-1,保证分布一致性,加快收敛。扯到BN,接着大神问

3、BN为什么可以加快收敛
同一分布,这个不好使,大神说这还是宏观层面的认识,可不可以从公式推导,不会。大神说了一句从loss函数反推,可以证明,目前还没有其他人证明过,但他自己推过。膜拜ღ( ´・ᴗ・` )比心。
不过在美帝的同学跟我讲,BN有没有效现在各路大神还在各种撕逼当中,好想回去死皮赖脸问下大神他怎么推的,囧。。

4、为什么都用l1,l2正则化,不用1/2正则化?
依旧不知道,只说了l1正则化具有稀疏性的原则,画了经典的那个图,l2正则化具有平滑性的特点。1/2正则化不知道为什么,大神提了一嘴,拉普拉斯分布,让我回去自己查,一脸懵逼。
找到两个链接:
https://www.zhihu.com/question/21958931
https://www.cnblogs.com/fstang/p/4197120.html
L1/2是不满足三角不等式的,但是还是不太理解满不满足三角不等式有什么关系。难不成是随机初始化w值,理论上的最优值不是唯一的?问了其他同学,确实L1/2是凹函数,都是只有凸优化,没有凹优化。。

5、为什么求解w的那个迭代公式可以work呢?loss为什么一定会下降呢?
这个真的是太tricky, 不是沿着梯度最大的方向递减吗?让loss等于0,然后求导迭代吗??懵逼。。
我想到的角度一个是经典的图,一个是想到了SVM的对偶形式,把它展开之后,说w可以是特征的线性组合。自己脑子里全是,最优化理论不就是loss=0,求导,迭代吗?为啥还要证明呢?
最后问了大神,大神将w的迭代公式带入loss,然后进行泰勒展开,最终完美的证明了loss的下降。So awesome!能想到这个角度,五体投地。

总结

技术leader真的很牛,原本都没有考虑过小公司,毕竟我本身在相对大的互联网公司,因为佩服技术leader,都有点心动了。

技术leader愿意培养新人,很幸运面试过了,跟面试官聊得也很开心。

最后问了技术大牛我觉得深度学习太虚了,想做机器学习,推荐算法,开发类。他说了一句话给我印象深刻,做了一年的深度学习和两三年的,似乎区别不大。终归,是调参,如何把参调好,总结出一套自己的东西,是做这行的一个积累。

不过,对玄学的总结,是否真的是经验,总归我自己的感觉不太好。

一家之言,大家笑笑就好

猜你喜欢

转载自blog.csdn.net/qq_20095389/article/details/87975098
今日推荐