把PUE从2.05降到1.4,这家金融数据中心是如何做到的?
图片来源:Sean Pollock,Unsplash
01
项目背景
今年3月,工业和信息化部、财政部和生态环境部联合印发了《绿色数据中心政府采购需求标准(试行)》,对于各级国家机关、事业单位、团体组织使用财政性资金采购的数据中心PUE等提出明确要求,其中包括2023年6月起数据中心PUE不高于1.4,2025年起数据中心PUE不高于1.3。
金融数据中心由于起步早,大多设施老旧、空间利用率低,不仅PUE高,而且现有的空间结构和设备架构也很难满足新的技术需求,数据中心迫切需要升级改造。
02
项目概况
某上海金融企业,上市后随着业务规模的增长,对数据中心需求越来越大,10年前建设的数据中心越来越力不从心。
该企业10年前所建机房批准电力为20000KVA,机柜总数量为2500个,分五个单元机房,每单元机房500个机柜,每个机柜设计功率为4KW,2N架构,总IT负载为10000KW,配置了50台500KVA容量UPS系统、135台100KW空调,采用传统高架地板下送风方式,IT实际运行负载为9000KW,单路UPS负载为36%,实测的机房总供电功率为18450KW,PUE高达2.05。
03
解决方案
在仔细研究和分析数据中心的各个子系统后,确定了改进方案如下:
(1)使用更高效的UPS
在典型负载下,高效率的UPS系统比传统UPS系统的损耗更低。
用户采用的传统UPS系统在低负载时效率不高,满负载最高效率仅94%,半载效率仅89%。改建后,UPS系统全部采用高效率、可边成长边投资的模块化UPS系统,满载效率高达97%,半载效率达95.5%,这使供电系统节能达6%。
(2)采用行级制冷
行级空调冷却体系在高密度情况下具有更高的效率,气流回路短,风扇能耗少。再加上行级空调的送风和回风温度较高,提高了制冷设备的效率和容量,并省去除湿过程,可大大减少加湿成本。
改建后,用户的空调系统采用紧靠热源的高效率冷冻水行级水平送风空调,这种空调系统比传统下送风空调节能达25%。而且采用行级制冷无需独立更高的地板空间,不再需要高架地板,这使用户以后机柜密度可以增加至8KW甚至12KW,同时节省了高架地板及高架地板下的保温层设施。
(3)使用可扩展的供电和制冷设备
原系统采用传统500KVA主机,2N系统使得单路负载率低于50%,效率低。
使用模块化、可扩展的电力系统及冷却系统,只根据负载的需要进行升级,能大大降低固定损耗。新方案采用的是可以边成长边投资的模块化UPS,可以是A路N+1,B路也是N+1,模块化UPS多余模块在保证N+2冗余情况下会自动休眠,从而使得单路负载率大大提高,实现高效供电。
(4)采用热通道封闭系统
冷热通道气流遏制均可显著提高传统数据中心制冷系统的可预测性和效率,尽管两种方式均可消除冷、热气流的混合,但采用热通道气流遏制系统策略会比采用冷通道气流遏制策略多取得43%的节能效果,在年度PUE上会有15%的改善。
将来采用热通道封闭系统,最终单机柜功率密度可达20KW,会使用户空间利用率大大提高。
04
改造结果
五个单元机房按顺序分别改造后,IT实际运行负载还为9000KW,实测的机房总供电功率为11700KW,PUE为1.40,与改建前18450KW比较,节省电力高达6750KW,IT负载可再扩展约70%,解决了用户IT扩容电力不足的问题。
中科仙络
值得信赖的金融数据中心服务商
北京中科仙络智算科技股份有限公司成立于2007年,是一家为数据中心基础设施提供技术咨询和专业服务的公司,可以为金融机构提供数据中心的全程咨询、权威认证、测试验证、运维外包、节能改造、机柜托管及云服务等服务。
我们是北京金融科技产业联盟的“信息基础设施专委会”委员、“金融数字化转型工作专委会”首批委员单位,5位技术骨干入选“高级专家名录”。我们还是北京国家金融科技认证中心合作检测机构。
面对极具挑战性的数据中心节能改造,我们拥有成熟的方法论和实践经验。我们参与编写的《金融业绿色数据中心白皮书》荣获2023年北京金融科技产业联盟信息基础设施专委会“优秀课题”奖。
期待与您合作!咨询热线:400-161-1386