【IDCC2020】上海数据港股份有限公司技术管理中心总经理王肃:新基建时代,数据中心节能创新技术趋势探索
下面我想通过四个案例跟大家分享一下我们怎么去看待节能应用赋能数据中心价值链。首先第一个案例是在张北,这个项目在建设之初就有好多的朋友特别感兴趣,因为这个项目是第一个全球大范围应用干冷气作为主冷源的项目。大家知道张北有些气候特点,它位于坝上的高寒区,冬季的温度会达到34.8度,夏季会达到33.5度,冬季和夏季对于整体的暖通系统的运行并不是太有效,我们可以看到平均气温3.2度对于节能系统比较好,但是对运维的安全性提出了挑战。另一点海拔1500米,空气密度也会是一个问题,其中最重要一点就是水资源少,年平均降水量只有300毫米,为什么选择干冷气作为主冷源呢?一个主要原因就是降水少,没有足够的水源支撑这种冷源形式。 这个是我们数据中心的一个基地图,之所以我们的业主或者客户选择这个也是为了符合环境,也是性价比来讲综合的选择。整个园区一共五栋楼,一期的ABC都是用的干冷气作为主冷源,一栋楼建筑面积2万平米。干冷气这个东西主要就是三部分组成,一部分位于上面的EC风机,一个是侧面的管,还有一部分是水喷的管路。一栋楼12兆瓦的情况下,我们把冷源分为AB两个区,每个区占比60%,还有40%由风冷为辅助。干冷是6850千瓦,在极端天气会降到2650千瓦。 我们为什么说这个干冷气选择是比较好的选择呢?我们通过数据跟大家分享一下。 这个系统运行有三种模式,在18度以下是纯干冷气,18度到20度是干冷气加水冷气,如果是大于24度的,全年大于24度的时间是148小时,等效是6.2天。全年可利用的时长是8612小时,等效的情况是359天,也就是说全年有95%的左右的时间都可以利用自然冷源的。从环保层面可以减少废热、废水的排放。 这是刚投入的时候,我们现场实际拿到的运维数据。5月10号日平均温度是3.8度,它处于干冷气制冷模式,IT负载率在27%的情况下,CLF大概是0.098。5月13号到了15.4度,处于混合运行模式下,CLE是0.221。 另一个跟大家分享的案例是我们刚刚在华东和业主投入的浸没式液冷数据中心。这个数据中心如果没有统计错的话,应该是全球最大的应用浸没式液冷的数据中心。浸没式液冷很简单的理解,通过液冷机柜的冷却液体对IT设备直接接触发热量的冷却形式,再排到室外。它相对于我们传统的制冷方式,不管是水冷、风冷或者其它的冷源形式,最主要的一点是去压缩计划,没有中间的压缩机的部分,也就是说浸没式液冷可以简单的去理解为全年全部是在自由冷却的时间段工作的。 通过上面跟大家分析PUE的事情来看,其实我觉得浸没式液冷主要是技术方向,一种制冷形式,但是结合PUE这个维度来看,我们觉得不光是一个制冷形式这么简单,其实它更多的是提出了一个数据中心基础设施的新概念。因为浸没式液冷是服务器完全不需要后端的风扇的,它的最大贡献不是减少了PUE,提升了能耗,它的最大贡献是把服务器的有效功率完全转化为算力。我们这么多年来其实没有一项新技术是打破了原有的技术理念和技术架构做的技术革新,都是在前人的脚步上不断改善,但是浸没式液冷的提出打破了原有的技术框架。从PUE数值来看,减少了后端的IT功率那部分的风扇功率,其实对PUE值是没有帮助的,反而对PUE值是不会让它好看的,因为分母部分比值减少了,反过来算PUE的时候,浸没式液冷如果同等的IT功率,同等的基础电商算它的值肯定要大的,但是它的总体能耗是小的,它把服务器的功率完全转化为它的算力。 这个不详细介绍了,大家看一下就好了,可能是浸没式液冷一些优缺点。 我们现在在华东投入的数据中心当时做计算的时候预估的PUE可以1.18左右,但是现在可以做到比这个数值低好多。 另外一个项目有一次去日本调研的时候,这个项目是位于日本的青森,是日本的最北端。第一个特点是全年温差比较小,代表它的气候比较稳定。第二个特点是冬季降水量非常大,这个项目非常巧妙的把冬季降雪在夏季储存起来,作为自然冷却的能源给数据中心供。从数据分析来看,5月份的PUE可以做到1.92,大家可以看到这个数值其实非常不好看,PUE1.92。后面还有一个IT负载只有2%,但是在11月的时候IT负载升到8%以后,它的PUE为1.16了,所以这个项目其实给我们的启发是利用当地的自然条件和自然措施怎么能更好的为数据中心的经济模型做贡献。 最后一个项目是位于美国的哥登市,这个项目是美国的能源局下面一个节能再利用的超算中心,总共大概1000千瓦一兆的IT运算量。这个项目在2018年的时候是获得了美国埃士瑞的最佳节能奖。它也是全年严重缺水的城市,全年降水量大概在360毫米左右,它当时做的时候是用的液冷技术,靠冷却塔把这部分的废热排到室外。14年投入运营以后到16年觉得这部分的水耗太大了,而且当地的水资源也不足以支撑这个项目的正常运行,并且从美国的电价和水价分布,电价很便宜,差不多相当于4.5元人民币一度电,但是水费相当贵,一加仑6.5美元,一立方米大概240多加仑,大概是12多美元一吨的水。它在16年被迫做了一项改造,在中间加了一个虹吸式干冷气,这个项目既用了液冷部分,也用了干冷气部分,一部分降水耗,一部分降电耗。这个项目的BA比较有意思,一套自控系统根据室外的温度,以及服务器的内测温度来调节干冷气和液冷的冷却塔的能耗分配,这个方案是完全从能耗的角度考虑的。还有一部分自控系统把水费、电费的经济指标输入里面,自动调节怎么产生一个比较好的经济收益,这个项目也可以给我们带来一些启发。我们做数据中心的时候可能会在某一个时段过多的去关注某一项指标,但其实回过头来看,其实所有的指标都应该是一个综合的指标。 下面再说一下数据港,作为国内定制的数据中心的龙头企业,自成立之日起一直于互联网头部公司奋战在中国数字化的第一线,我们在一线城市也有一些资源积累,也会做一些新零售的模式。我们的服务对象就是服务器,服务器本身就有客观的需求,比如送回风温度,服务器内部的环境温度都有客观的需求。通过这四个案例,我觉得数据中心也需要有一定的个性,根据当地的气候条件、地缘环境、政策条件、市政调整,我们要打包成一个综合的指标来看待数据中心,重新定义数据中心的架构。 (编辑:鞍山站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |