如何科学的搭建一台深度学习服务器?

在如今的时代,人工智能的技术已经开始使用在各行各业,例如人脸识别等计算机视觉技术已经开始广泛的使用在人们的日常生活中去 ,如果我们要自己去训练模型,首先我们需要的是寻找到数据集,因为深度学习的技术是需要有非常多的数据,其次最为重要的也就是“算力”,深度学习模型的训练需要基于强大算力平台。也就是GPU,深度学习的模型训练的过程中大量张量会在GPU上完成求导等计算梯度的运算,但是单单有GPU是不行的,还需要有CPU进行配合,甚至SSD固态硬盘,内存等多个问题组成,那么如何选择一台“性价比”最高的深度学习服务器呢?请看下面的解释:

GPU:GPU(图像处理单元)也就是我们常说的显卡,GPU是整个深度学习服务器中最为重要的东西,一般的笔记本的显卡配置的都是GTX1060显卡,显存6G,可以用来执行一些简单的数据集,但是coco等大型数据集就不适合了,现在一般的深度学习服务器中主流选择的GTX1080ti,显存11G,RTX2080ti,显存11G,两个的显存很大,且性价比最高,同时为了提高训练的速度,个人推荐四块GTX1080ti,或者四块RTX2080TI最为合适。当然也有特殊情况,比如使用的数据集数据过大,造成GPU的显存溢出,可以选择更大显存的显卡,接下来是重点Tesla v100 16G/32G,或者RTX8000,48G显存。他们二者的区别在于具体的用途,Tesla v100 支持双精度训练,RTX8000仅仅支持单精度训练,双精度训练一般用于医学图像上的目标检查或者分割,也就是要求极其严格的领域,除此之外均不需要双精度。另外根据BP反向传播算法的原理,Batch size越大,测到的梯度越是准确,因此大显存使用推荐RTX8000显卡,另外比较一下显卡的散热方式,显卡在运行时会出现对大量的热,散热方式尤其重要,Tesla v100为被动散热的风扇散热,噪音较大,且风扇散热效果不好,造成显卡温度超过86℃,会使得GPU的主频下降,利用率减低,RTX8000为主动的涡轮散热,散热效果更好,噪音更小。

CPU: CPU用于深度学习模型训练过程中的数据预处理与多卡训练的均值LOSS损失函数计算,因此CPU很有可能成为深度学习模型训练的瓶颈,因此需要使用较高的主频,考虑得到性价比,目标选择为金牌6149与银牌4125,二者参数分别为8核 16进程3.2GHZ ,16核 32进程 3.1GHZ,虽然主频降低0.1GHZ,但是核心数增大了一倍,因此金牌6149更加具有性价比,除此之外,CPU分为正显版与正式版,一般来说,正显版指的是在CPU正式售出前的测试版,但是均是通过测试的,所以正显没有问题,CPU的铂金系列售价最为昂贵,不建议使用,CPU由于需要处理大量的运算,因此核心与主频不会都高,一般来说核心越多的,主频会降低,可以并行运算多线程,主频高的执行单个进程速度最快,根据目的选择。

内存:根据CPU的读写通道数,内存在为6的倍数时间读写更快,因此选择616GB,或者632GB,现在一些数据集比如imagnet数据集已经超过了100GB,因此选择192GB的内存比较合适,甚至一些主机已经超过了200GB,不过已经够用了,选择R4版本内存条效果最好。

磁盘存储:磁盘分为固态硬盘与机械硬盘两个部分的存储,固态硬盘的价格比较便宜,为了加快地读取的速度,可以使用磁盘阵列做成阵列卡,加快读取速度,举个例子一张12GB的硬盘速度不如3张4TB的机械硬盘,同时阵列卡更加安全,其中一张卡损坏,数据仍然可以读出来。

最后说一下服务器的机架,分为塔式与机架式,塔式的占地面积小,更加省地方,一般均选择塔式。

以上就是所有深度学习服务器的选择指南,包涵了很多的计算机硬件的基础知识,只有充分了解这些技术的知识吗,才能根据不同的用途选择最为合适的服务器,做到物尽其用!加油加油!

作者微信公众号: AI初学者的学习笔记
简书社区:https://www.jianshu.com/p/bdf412f1ef5b

猜你喜欢

转载自blog.csdn.net/baidu_39629638/article/details/106108004