ad

一样是免费冷却技术 百度云计算中心却玩出新花样

匿名投稿 317 2024-01-02

最近几年来,随着物联网、云计算、大数据和人工智能等高新技术产业的迅猛发展,数据中心建设成为一种“硬需求”。而数据中心作为实体介质存储的地方,需要同时容纳大量服务器,解决服务器的散热问题,才能保证数据中心的正常运转,制冷是控制温度的重要一环。据资料显示,制冷进程消耗的电能在全部数据中心运转进程中,占据的比例高达40%,如果不作任何技术改进,一处数据中心的能耗极可能就超过一座30万人的县城。

  不同于Facebook公司计划在北极圈内创建的一个大范围数据中心,或是微软一直在实验的水下数据中心,随着数据中心冷却技术的不断发展和计算机性能的不断优化,以百度为代表的国内数据中心已允许数据中心处于更高的工作温度,这也改变了建设数据中心最好环境的参数。

  传统的冷却策略大多是集中在服务器的冷却上,或是重视于借助外界低温环境以实现装备冷却的目标,但是百度云计算(阳泉)中心在冷却技术上如今已有了新的成绩。例如传统服务器要求环境温度为5~35度,服务器一般运行在25度左右,百度特别研究的高温服务器耐温设计高达45度,从而大幅度提高自然冷却时间。

一样是免费冷却技术 百度云计算中心却玩出新花样

  图示为百度云计算(阳泉)中心节能示意图

尽人皆知,投资已有冷却基础设施的决定很容易,但是选择在数据中心内调理温度的方法更具挑战性,但百度恰恰就是要钻“牛角尖”。以百度云计算(阳泉)中心为例,百度一直在对暖通架构进行优化改进。

  据数据中心相干负责人介绍,百度采取了自研“零功耗”空调末端OCU,结合高温服务器技术及新型气流组织,充分利用了天然冷源,将机械制冷、预冷和自然冷却3种运行模式优化,使全年免费冷却到达96%以上,相当于每一年全部用冷机的时间只有两周。

  至今为止,百度云计算(阳泉)中心采取了CRAH、AHU、OCU和IDEC等多种空调末端情势,其中百度自研新型空调末端——置顶冷却单元OCU(Overhead Cooling Unit),结合预制模块技术,冷却模块垂直安装在机架上方,空调末端无风扇,零功耗,利用空气对流原理,在抽走“热通道”热空气的同时,输送“冷空气”给冷通道;AHU(Air Handle Unit)风墙冷却技术,经过与高温耐腐蚀服务器配合,采取崭新气流组织方案,解决了空气污染及腐蚀困难。

  图示为百度云计算(阳泉)中心污水处理装置

不但如此,百度云计算(阳泉)中心还采取污水回收再利用技术,作为耗电耗水大户,数据中心将排污进行搜集,经过酸碱中和,稀释其中的钙镁离子。据介绍,污水回收系统全部投产以后,每一年的回收量能到达48万吨,相当于4千户人家一年的用水量。

  基于以上种种暖通系统节能创新技术,百度云计算(阳泉)中心成了国内唯逐一个经过工信部和绿色网格组织(TGG)绿色数据中心设计、运营双5A认证的数据中心。由此也让我们看到在当前数据中心相干技术与创新以国外企业为主导的基本上,国内数据中心也在不断创新,并经过独辟蹊径的创新思惟,让我们看到了中国数据中心在绿色智能发展上的努力,而对数据中心这类不久的将来时期发展必不可少的硬需求,其作用和作用将相当重要。


免责声明:
本网址(www.yingxiongyun.com)发布的材料主要源于独立创作和网友匿名投稿。此处提供的所有信息仅供参考之用。我们致力于提供准确且可信的信息,但不对材料的完整性或真实性作出任何保证。用户应自行验证相关信息的正确性,并对其决策承担全部责任。对于由于信息的错误、不准确或遗漏所造成的任何损失,本网址不承担任何法律责任。

本网站所展示的所有内容,如文字、图像、标志、音频、视频、软件和程序等的版权均属于原创作者。

如果任何组织或个人认为网站内容可能侵犯其知识产权,或包含不准确之处,请即刻联系我们进行相应处理。

上一篇:虚拟化和散布式:云贮存的手段与不久的将来趋势(虚拟化与云存储)
下一篇:直击风暴I黑客(Hacker)正以微软“蠕虫级”高危漏洞预让全世界堕入瘫痪(storm风暴)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~

×