400-025-7877

新品发布 | ChatGPT引爆算力需求 坤前AI服务器制冷革新

点击量:23481 发布时间:2023-02-16

近期,现象级AI应用ChatGPT火出了圈,成为当下人工智能领域的流量担当,不仅能实现智能检索与对话,甚至还能帮你写文案、改剧本。相关数据显示,2012-2018OpenAI最大的AI训练算力消耗增长30万倍,而在2020GPT-3的模型参数量已达1750亿,优秀的模型背后是澎湃的算力支撑。

01

算力担当

中国造让科幻照进现实

春节档《流浪地球2》的火爆上映,以中国味道将许多现实世界的科技元素融入了科幻片:能够推动地球的行星发动机、实现天地穿梭的太空电梯、拥有超强战力的无人机军队……科幻电影为科技发展埋下合理的想象种子,而中国式的浪漫使其根植于现实工业与科技的基础。在影片中,维持数字生命需要强大的算力资源支撑,量子计算机作为“数字生命计划”的算力担当,能够计算出地球即将遭遇的危机,实现全球复杂计算资源的融合与调度,以满足数万座发动机的协同运作,它的原型便是现实世界里的液冷服务器

坤前服务器定制,人工智能

现实世界中,ChatGPT的爆火开启了以大数据、大模型、高算力为基础的人机交互新时代,这种生成式AI的开发需要对拥有海量参数的超大规模模型进行训练,对应的便是需要大量高性能AI算力进行支撑。据《2022-2023中国人工智能计算力发展评估报告》所述,2022年我国智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模,预计未来5年复合增长率将达52.3%。数据中心在源源不断织就AI算力网的同时,带来的大量能耗令人喟叹,如何突破节能瓶颈、控制运营成本已成当务之急,而答案便在耗能占据43%的IT设备散热上。

02

制冷革新

坤前新一代液冷新品发布

坤前全新发布的KI4200GLC系列是一款为满足对空间部署和高性能要求的,基于英特尔®至强®可扩展处理器平台设计开发的机架式GPU服务器,与传统风冷式相比,能耗降低约30%,噪音降低约25分贝,在提高了性能的同时,极大程度降低了数据中心的碳排放,专业的机箱设计实现了并行计算性能、存储扩展性与节能环保的完美融合。适用于面向对空间部署和高性能有要求的高性能计算、高端图形工作站等应用场景,如图形渲染、多媒体编辑、3D 建模、设计、动画、网络游戏处理等。

液冷GPU服务器,4U机架式服务器 

更高性能

最大支持2颗英特尔®至强®可扩展处理器,性能提升显著

最大支持4片全长、全高、双宽专业图形卡及计算加速卡,并对CAD、仿真模拟、GCC渲染、GPU计算等应用进行了优化

最大支持16 DIMMs,最大容量6T,大幅提高内存带宽,更加适合图形渲染、多媒体编辑等处理工作

更低能耗

风液式CDU散热,通过冷却液带走更多CPUGPU热量

保证系统在高配置下散热和稳定的同时,可有效降低机器噪音

可实现数据中心PUE降至1.1,显著降低空调系统和相应基础设施的投资,提高空间利用率

便捷运维

单节点部署,无需外循环,较整柜式而言部署更灵活

灵活配置,最大支持83.5寸热插拔/SATA/SAS存储盘位。支持Cache超级电容保护,提供RAID状态迁移、RAID配置记忆等功能

搭载液晶显示屏,实时监测设备温度、冷却液压力、流量等,智能运维

在数字化全面转型的时代,绿色计算的内涵愈加丰富,技术也在推陈出新。坤前在攻坚产品性能体验的同时,也将紧跟数据中心高密度、高能效的绿色发展需求,支撑千行百业的大规模计算演进。

返回顶部