400-025-7877

GPU是如何提高AI服务器算力的?

点击量:451 发布时间:2022-08-19

当下新一轮的科技革命和产业变革正在加速推进, 而人工智能技术的发展为各行业、产业智能化转型提供新的可能,但是AI技术对于算力的巨大需求也不容忽视,AI服务器作为其算力的基础正面临着新的挑战,并成为业界关注的焦点。

通常来说,最核心的计算部件是CPU,但是其提升速度已经逐渐落后于人工智能训练计算量的发展,随着芯片工艺面临物理极限,其提升速度可能还会进一步减缓。可以预期的是,CPU计算能力与人工智能需求间的差距将越来越大。在这种情况下,人工智能服务器必须引入新型的计算部件分担AI计算的负载,采用并行计算的方式来解决CPU算力不足的问题。

GPU是目前最常见的加速计算处理器,适合于处理类型高度统一、相互无依赖的大规模数据和无需被打断的计算过程(如对图片的所有像素并行做渲染)。GPU拥有的强大的并行处理能力使得它在图形图像处理之外,能够在人工智能计算负载的处理中发挥重要的作用,尤其在人工智能算法的训练上非常高效。

在“CPU+GPU”的架构中,待处理的数据被从CPU内存复制到GPU显存中;然后,CPU把程序指令发送给GPU,驱动GPU开始并行处理;接着,GPU的多计算核心对显存中的数据并行执行相关处理指令,计算的最终结果放入显存中;最后,计算结果被从GPU显存复制到CPU内存里。由此可见,在“CPU+”架构中,CPU主要负责总体的工作协调和计算结果的汇总,而大量的可并行的计算负载则由类似GPU的加速部件完成,从而达到性能提升的效果。

KI4200G-HS2修图.png

例如坤前KI4200G就是是一款为满足对空间部署和高性能要求的AI服务器产品。基于第二代英特尔®至强®可扩展处理器设计开发的4U双路机架式图形工作站。在4U高度空间中可支持8片双宽或者20片单宽图形计算加速卡,并且对 CAD、仿真模拟、GCC 渲染、GPU 计算等应用进行了优化,该产品体现了性能、扩展性和密度的完美融合,适合用于图形渲染、深度学习、天体物理、化学分子计算、云计算和虚拟化、计算密集型行业或应用。

GPU作为AI服务器的核心部件之一,在分担算力的同时影响着服务器中与之相配合的内存、存储、网络乃至供电、散热、机箱等设计要素,因此如何进一步提高并行处理的计算能力并保持各部件协同工作,从而形成完备的人工智能服务器技术体系,将是未来研究的重要方向。

返回顶部