算法工程师<深度学习基础>

<深度学习基础>

卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法

1、卷积神经网络工作原理的直观解释

https://www.zhihu.com/question/39022858

简单来说,在一定意义上,训练CNN就是在训练每一个卷积层的滤波器。让这些滤波器组对特定的模式有高的激活能力,以达到CNN网络的分类/检测等目的。

2、卷积神经网络的复杂度分析

https://zhuanlan.zhihu.com/p/31575074

3、CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?

https://www.zhihu.com/question/34681168

4、BP算法中为什么会产生梯度消失?

https://www.zhihu.com/question/49812013

5、梯度下降法是万能的模型训练算法吗?

https://www.zhihu.com/question/38677354

6、LSTM如何来避免梯度消失和梯度爆炸?

https://www.zhihu.com/question/34878706

7、SGD有多种改进的形式(rmsprop、adadelta等),为什么大多数论文中仍然用SGD?

https://www.zhihu.com/question/42115548

8、你有哪些deep learning(rnn,cnn)调参的经验?

https://www.zhihu.com/question/41631631

9、Adam那么棒,为什么还对SGD念念不忘?

https://zhuanlan.zhihu.com/p/32230623

10、全连接层的作用是什么?

https://www.zhihu.com/question/41037974

11、深度学习中 Batch Normalization为什么效果好?

https://www.zhihu.com/question/38102762

12、为什么现在的CNN模型都是在GoogleNet、Vggnet或者Alexnet上调整的?

https://www.zhihu.com/question/43370067

13、Krizhevsky等人是怎么想到在CNN里面用Dropout和ReLU的?

https://www.zhihu.com/question/28720729

猜你喜欢

转载自www.cnblogs.com/ariel-dreamland/p/10594909.html