探秘人工智能背后的异构超算服务器
目前,国内人工智能技术已经日趋成熟,科大讯飞的语音识别、小米的智能硬件都从各个领域影响着我们的生活。人工智能背后,是由深度学习建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,让机器会思考会判断。但是深度学习所需要的并行计算不是CPU的强项,因此高性能的CPU+GPU协处理加速的服务器正成为实现深度学习必不可少的基础硬件。 但是,目前市场上GPU服务器的配置各异,有2U2卡,1U4卡,3U8卡,4U4卡,4U8卡等等服务器形态。如何做好选择,搭建最合理的训练架构,是开启深度学习之路的第一步,这一步也会关系到后期训练的效果。那么,阿里巴巴、奇虎等领先的互联网企业为何选择NF5568M4这类4U4卡的异构超算服务器? 性能为王,但仍需考虑适用性 多卡GPU+CPU架构架构需要大量的GPU核心数,在单机内的选型原则,以最多卡数为主。理论上,单机越多GPU卡的堆叠,性能也会达到更高。但是,每块GPU卡的功耗在235W—250W左右,加上服务器的CPU和其他部件,一台4卡GPU机器在工作状态会达到近2000W的功率,而8卡的甚至能达到3600W以上。 GPU卡因强大的并行...