随着金融数据的急剧增长,我们搭建一个GPU集群来做研究并优化深度学习过程中的程序化交易,训练量化投资模型。
应该使用哪种加速器呢?英伟达NVIDIA、AMD或英特尔的Xeon Phi?
NVIDIA 的标准库使得在 CUDA 中建立第一个深度学习库很容易,但没有适合AMD的 OpenCL 的那样强大的标准库。目前还没有适合 AMD 显卡的深度学习库——所以只能选择 NVIDIA 了。即使未来一些 OpenCL 库可用,我们仍会坚持使用 NVIDIA:因为对于 CUDA 来说,GPU 计算或者 GPGPU 社区是很大的,而对于 OpenCL 来说则较小。因此,在 CUDA 社区,好的开源解决方案和为编程提供可靠的建议是现成的。而英特尔的Xeon Phi更不用提了,只支持非常小部分的 C 代码,大部分的 C 运行起来是很缓慢的。
由于NVIDIA英伟达的GPU与AMD的GPU参数过多,我们选取当中最重要的三个参数来比较
存储带宽 (Memory Bandwidth)
价格 (Price)
功耗 (Graphics Card Power)
其中存储带宽 (Memory Bandwidth)决定了这个GPU的性能。
NVIDIA显卡分三大系列:GeForce系列(家庭娱乐),Quadro系列(专业图像),Tesla系列(服务器)。对比发现,Quadro系列的普遍存储带宽太少,Tesla系列性价比最差,唯一是NVIDIA的GeForce系列能与AMD相比较,AMD的存储带宽 (Memory Bandwidth)很大但价格稍微高于NVIDIA。在400-500美金范围选择的话,可以考虑
GeForce GTX 980
GeForce GTX 1080
AMD Radeon R9 390X
AMD Radeon R9 290X。
值得注意的是:NVDA 的GTX 980 TI比GTX 980多2GB 内存。但980 TI功耗比980高50%。我们不推荐980之下的GPU。因为达到同样的计算能力,使用更便宜的GPU会增加机器数量,可能导致其他配套成本(例如CPU,电源,主板)和维护成本的增加。
CPU: 核(core)的数量不是越多越好,一般4核或6核就足够,对于Intel的CPU能够在每一个核上运行多个线程,因此每个GPU对应一个CPU核通常就够了。美国网友综合评分4.5星的英特尔i7 5930K,有6核12线程,性价比高。产品链接