您当前的位置:首页 > 知乎文章

IDC:不是制冷,是保护

时间:2022-02-28 10:47:51  知乎原文链接  作者:网盾科技

最近两天,武汉气温骤降,从之前穿一件短袖,直接跌至不得不重新穿回棉袄的状态。

骑着电动车来公司的路上,我突然想到:这么冷,为什么我不去IDC数据中心寻找服务器的温暖呢?

之前我在给朋友安装Linux系统的时候曾百度搜过,一般一台服务器的CPU正常情况下的温度在45°-65°,主板温度在正常情况下大概有40°-60°,而硬盘的温度一般有30°-60°不等。

这样的温度,试想哪一位可怜、挨冻、又无助的打工人不喜欢呢?

class="ztext-empty-paragraph">

抱着这样的想法,我兴冲冲地顶着狂风一路飙车飙到五里界BGP数据中心门口。

进去后先迷路了半小时,等我好不容易跳过机电、冷凝室、监控室等找到机房,站在机房门口的我人都傻了:

不仅机房顶部配备了吊顶空调,两边还放着一排中央空调正对着机架猛灌冷气。

class="ztext-empty-paragraph">

你以为的机房:

爪哇的温度、海南的热情、夏威夷的浪漫;

实际上的机房:

成都的温度、武汉的凉意、哈尔滨提供的冷气。

虽然在机房附近我都没有感觉到冷,但只要经过机架,就能被空调的冷气照拂到。

20摄氏度也不低,就是冷了点;但为什么非要开着空调呢?明明外面都这么冷了...

class="ztext-empty-paragraph">

带着这个疑惑,我上网又查了一下IDC数据中心的温度规定。

《计算机站场地技术条件》里是这么写的:

开机时机房内的环境温度、湿度标准,其中环境温度为:A级22°±2°,B 级15°-30°,C级10°-35°;环境湿度为:A级45%-65%,B级40%-70%,C 级30%-80%;一般通信机房的标准均应达到A级标准。

在IDC还未成规模的时候,IDC数据中心无论是规模还是密度都较小。

一般来说,一台独立的机柜,功率密度在2kW以内。即使空调系统出现故障,机房内的温度上升速度也不是很快,再辅以轴流风机加速空气流动、干冰(或水冰)临时补救等措施;亦或通过关闭非重要业务系统降低热负载的方法,尚可勉强对付;但目前的IDC机房由于机柜功率密度的不断提高,一般的IDC机房提供的基本机柜功率密度为3kW左右,也可能会根据客户要求对局部进行改造达到7kW功率密度;某些IDC服务商自建的机房机柜功率密度甚至可以达到30kW或更高。

据计算,服务器设备耗电量的90%以上会转化为显热,直接导致一旦IDC机房内的制冷系统出现问题,服务器温度会急剧上升,在很短时间内造成设备由于散热效率下降,而出现性能下降、高温报警、保护性关机甚至直接宕机的情况,会对业务造成严重影响。

因此,站在五里界机房里我才不会觉得热,经过机架的时候甚至没有感受到在家玩电脑时电脑会出现的热气。

class="ztext-empty-paragraph">

制冷系统,原来竟是为了保护...

上一篇      下一篇    删除文章    编辑文章
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
推荐资讯
相关文章
    无相关信息
栏目更新
栏目热门