新闻中心 新闻中心
新闻中心 新闻中心
传统数据中心如何通过改造提升能效、节能减排?
日期: 2023-09-06

  但随着云计算、AI的发展,传统数据中心出现了资源利用率低、不足以满足用户需求等情况。

  河南联通郑州第二长途枢纽局建设于2002年,是国家通信干线重要的网络组成部分。随义务增长,传统小规模老旧机房由于机房空间存在限制,供配电、暖通等系统陈旧且能耗高,逐步难以承接大规模计算、存储和传输业务。同时,在国家碳达峰、碳中和战略的背景下,数据中心作为能耗大户,还要顾及节能减排的重要任务。

  痛点在前,从2021年开始,中国联通河南分公司联合中兴通讯等多方合作,进行数据中心的改造计划。改造计划包括采用VRM智能双循环氟泵多联空调、iDCIM系统和智能母线等方案,使老旧数据中心机房空间利用率得到提高的同时,也大幅度降低能耗。

  数据中心的PUE值,也就是电能利用效率反映了数据中心的能效水平。这个值大于1,越接近1表明非IT设备耗能越少,即机房的能效水平越好。经过此次改造,二长数据中心的PUE值从原来的1.6X下降到1.3X,能效水平得到提升。此外,部署iDCIM管理系统,帮助二长数据中心提升20%资源利用率,增强运维能力,减少50%运维工时,实现高效低成本运维。

  “目前我们的综合PUE下降了15%。”河南联通高级工程师雷宇介绍,“采用VRM智能双循环氟泵多联空调以后,也解决了我们室外机没有地方放的问题。解决高落差机房空调的问题,节能效率提升50%。”

  近期,河南联通高级工程师雷宇、中兴通讯数据中心国内市场总监马涛以及中兴通讯数据中心中国运营商市场总监张伟和36氪等多家机构分享了河南联通郑州第二长途枢纽局的改造情况和经验。

  Q:河南联通郑州第二长途枢纽局为何会进行此次改造?具体有哪几个方面的提升?

  雷宇:郑州第二长途枢纽局现在已经20年。这个数据中心有几个特点,一是楼层非常高,另外设备也都比较旧。这栋楼在最初设计的时候,一些承重以及中间的隔断都不太符合新型数据中心的部分标准,只适用于此前的低功率机柜,另外在管理方面相对来说还是比较分散。

  从节能减排方面的提升来看,此前二长数据中心最大的功耗只能到1、2KW。室外机都在北边的钢梁上,因为室外机的密度太大,所以非常容易导致热导效应。当室外温度高于25度到35度以上,室外机基本上都会进行热保护导致空调停机。而经过改造后,采用VRM空调,首先它的V字型室外机造型,整体空间比较小,可以集中放置。其次通过目前的空调以及风力热通道,整体的PUE达到近1.3。相比于此前的1.6左右,效果提升了不少。另外通过目前的iDCIM系统,能轻松实现AI调节能耗,通过一些自动的温控调节,避免了一些因为人为误操作造成的不必要损失,温控调节变得更的智能,也达到节能的效果。

  而且经过改造升级之后,目前无论是用电还是空调使用都是达到了国A标准。现在采用的精确送风,在机柜功率密度能够达到六千瓦,是原来的几倍。因此我们大家可以承接一些新的更高算力的业务。通过采用智能母线方案,模块化设计与装配,省去传统的列头柜。项目当前建设机柜总计1420个,部署智能母线方案后机房的出柜率提高约6%以上。

  此前我们的机柜是两米左右,可能放不下一台服务器,但现在可以放两到三台,空间上的整体效益得到了成倍的增长。

  Q:目前AI快速地发展,对于算力的需求慢慢的升高,二长数据中心对于未来算力需求的加速有什么考量?

  雷宇:算力除了计算能力,带宽也是很重要的。带宽方面,我们采用了业界最先进的400G以上的高性能的路由器,在数据传输方面提供超宽通道。

  在计算能力方面,目前经过改造之后,业务承接得到提升,我们也在逐步引进智算需求服务,包括前一段洽谈的字节跳动的需求,还有联通自用的部分公有云的智算。而且目前和华为、百度、小米的合作洽谈都在跟进中,我们未来会将智算业务进一步提升。

  Q:目前慢慢的变多的企业在开发大模型或利用大模型做项目,二长数据中心经过改造后,可以对这一些企业提供哪些帮助?

  雷宇:此前运营商的业务主要集中于代理商卖带宽,卖机架等,相当于卖资源。而目前经过提升智算能力之后,能改变算力服务的商业模式,我们也能够最终靠承接AI训练等需求开展一些新的业务。比如一些做大模型或通过大模型做应用的AI公司可以把这些训练量承包给我们这种智算企业,这样我们就可以从卖资源向卖算力,承接训练量来开展新的业务。而且这能够尽可能的防止业内重复建设数据中心,这一些企业只需要专注于AI应用就可以。而我们既有“云”的能力也有“网”的能力,在这方面有独特的优势。

  马涛:对于老旧机房改造相比新建数据中心会面临一些挑战,新建的数据中心一般会提前做好基建,规划设计。而老旧机房的机房是已经按照原来的基建做好的,现在需要对老旧机房做新的技术应用,这就会受到限制,比如楼层高度以及单层的净高。另外内部布局、室外空间以及一些楼层之间的管线对于数据中心的改造都带来极大的挑战。

  其实我们在改造的项目当中,一般从几个维度去解决相关的问题。第一,在进行前期的方案设计。前期需要结合项目的真实的情况,充分做好项目的场地工勘,充分做好相关方案的认证,包括客户侧、外部的一些资源的联合的评审。在设计阶段,项目的方案最优化,尽量能够提前识别出有几率存在的一些问题。

  第二,在重要的项目施工前,需要保障部分参数的实际性落地,会借助一些相应的手段进行有关的论证。包括采用BIM仿真后,再在项目中进行实施。另外通过建立模型,通过模型识别也许会出现的一些故障问题。比如说管线是不是能够从这里布局,会不会有什么影响,尽可能减少项目中施工的问题,减少故障率,这也可以缩短项目执行的周期。

  第三,项目改造过程中可能会产生相关的供应工序问题。数据中心改造需要的人员、物料很多,如何安排物料的顺序、协调供应商供货的时间,这些都是常见的问题。我们会依托于强大的供应链资源,包括人员驻场,货物的及时达到,以及对现场设定合理的施工工序,防止问题。

  最后是项目的管理,中兴通讯的管理系统,在一些项目当中,会采用AI技术实现智慧工地,对施工全套工艺流程做一个最大化的管理,减少风险。

  这些是一些常见的问题和处理方法。一些典型的问题,比如吊装的时候预见一些暴雨,或者是一些比较恶劣的天气,对室外施工带来很大挑战,对这种情况我们肯定会结合项目情况做相关调整。

  Q:怎么样看待当下很多数据中心都在采用液冷服务器?怎么样看待目前的液冷技术?

  马涛:首先液冷方面是大势所趋,目前相关的智算,大模型,AI等所需的算力要求单机的功率密度很大,在此后的大模型训练中,机柜的功耗需求可能在20千瓦近30千瓦,甚至50千瓦以上,针对这种高密度需求,机柜采用传统的风冷技术是没法实现的。

  针对液冷来说,目前在业界主流的散热技术,一个是冷板式,一个是浸没式,第三个就是喷淋式。

  这三种技术,目前产业链最成熟、使用案例最多的是冷板式液冷。冷板式液冷能够适配于20千瓦到60千瓦的单机柜的功率密度范围。中兴通讯目前大多分布在在冷板式液冷研发上。针对冷板式液冷,我们已推出了自研的300千瓦CDU。

  针对不同场景下的智算、超算比较好的解决方案也是冷板式液冷。所以中兴通讯也会持续关注液冷技术的发展,也会和客户一起探索、研究,推动全域的发展。

  张伟:关于液冷我补充一个数据。今年北京通信展上,三大运营商发布了液冷白皮书。其指出在2023年要进行液冷技术验证,2024年进行规模测试,且针对明年新增的算力里的10%要采用液冷技术。在2025年使用比例要达到50%以上。所以液冷的趋势以及产业链完善程度是不断向前推进的。

  本文由「数字时氪」原创出品, 转载或内容合作请点击转载说明;违规转载必究。

  谁能想到,GPT-4都晋升「版主」了,人类要审核几个月的东西,它几个小时就可以搞定了!