电子说
随着数据中心的机柜和服务器的环境温度快速上升,其配置的冷却系统往往会不堪重负,数据中心运营人员面临快速有效降低机房温度的巨大压力。如果在不能增加冷却设施的情况下,运营人员可以使用一些冷却技巧和诀窍来防止服务器等IT设备过热。
以下一些技巧和窍门可能无法解决数据中心长期有效的冷却问题,但也可以起到一些作用。很多时候,当设备实际热负荷并没有显著超出冷却系统的实际容量时,优化气流可以改善这种情况,直到数据中心安装新的冷却系统为止。
1、如果温度上升,不要惊慌。即使气流通道的温度达到80℉也不要紧。虽然这比70℉至72℉的数据中心的标准温度要高一些(工作人员可能并不喜欢这样的场合中工作),但是对于服务器而言,它可能并不像人们想像的那么糟糕。如果机架前端的最高温度读数为80℉或更低,则仍在ASHRAE的TC 9.9最新推荐准则范围内。即使进气温度稍高(最高90℉),也仍然符合A2“允许”准则,这在大多数服务器的50℉至95℉的工作范围内。
2、在服务器前端进行温度测量。这是服务器吸入冷空气的地方,实际上是唯一有效和最重要的测量场所。在机架的顶部、中部和底部读取读数(假设数据中心有热通道-冷通道布局)。机架的顶部温度通常是最高的。如果机架底部温度较低,并且具有开放的机架空间,可以尝试将服务器重新布置在靠近机架底部(或最冷区域)的位置。
3、确保使用盲板挡住机架前部所有未使用的开放空间。这将防止热空气从机架后部重新循环到机架前部。
4、不必担心后部温度,即使温度在100℉或更高,也不要采用风扇吹向机架后部进行冷却,这只会使更多的热空气混入冷气通道中。
5、如果数据中心具有高架地板,需要确保地板的格栅或穿孔正确地位于最热的机架所在的位置。如果有必要,可以重新布置或更换不同的地板格栅,以使气流与热负荷相匹配。注意不要将地板格栅放置在离机房空调太近的位置,这将使冷气流立即回流到机房空调中,并使房间/行中其余他部分的冷空气流失。
6、检查地板在机柜内部是否有开口。地板上的电缆开口将让热空气从活动地板静压箱中排出,并将可用的冷空气进入到冷通道中的地板通风口。使用空气密闭套件可最大程度地减少此问题。
7、如果可能,尝试重新分配热负荷,并将其均匀分布到每个机架中,以避免或尽量减少“热点”。需要记住,在移动服务器之前,需要检查机架顶部、中部和底部的温度,只需将较热的服务器(同样基于机架前端温度)重新放置到较冷的区域。然后使用盲板挡住间隙。再次检查所有机架温度,确保没有创建新的热点区域。
8、检查机架后部是否有阻碍气流的电缆。这将给IT设备的风扇带来过大的背压,并可能导致设备过热,即使前面有足够的冷空气也是如此。这对于装有许多较长电源线和网络电缆的装有1U服务器的机架尤其如此。考虑采用较短的(1至2英尺)电源线,并更换大多数服务器附带的较长电源线。同时使用尽可能短的网络电缆。使用电缆管理来清理机架后部,以免阻碍气流。
9、如果机房中有高架管道冷却系统,需要确保冷空气出口直接位于机架前部,而回流管道位于热通道的上方。专家表示,一些数据中心机房的天花板通风口和回风口位置不佳,导致房间过热,这只是因为所有的冷空气都没有直接流到机架的前端或未正确抽取热空气。最重要的问题是确保来自机柜后部的热空气可以直接返回机房空调,而不会与冷空气混合。如果有增压天花板,需要考虑使用它来捕获热空气,并从机房空调的顶部回风管道安装接箍。一些管道工程可能对机房温度产生直接影响。实际上,回风越热,机房空调的效率和实际冷却能力就越高。
10、只有在可以将热量排到外部区域的情况下,才考虑添加临时的“卷入式”冷却装置。将排气管安装到机房空调上的天花板并不起太大作用,卷入式的排热管道必须排入受控空间之外的区域。
11、数据中心没有人员工作时需要关灯。这样可以节省1%至3%的电力和热负荷,这在边际冷却情况下可以将温度降低1℃~2℃。
12、检查是否还有空闲设备仍在运行。这是一个相当常见的情况,并且很容易解决,只需将其关闭即可。
结语
当数据中心的热负荷完全超过冷却系统的容量时,虽然并没有真正的有效解决方案,但有时只是改善空气流通可能会使整体冷却效率提高5%~20%。这可能会让数据中心的服务器度过最炎热的日段。无论如何,这将降低数据中心能源成本,总是一件好事。
数据中心运营人员需要未雨绸缪。如果其他方法均失败,则应制定一个备用计划以关闭最不重要的负载,以便更重要的服务器可以保持运行(电子邮件、财务等)。确保将最关键的负载部署在温度最低的地方,这总比最关键的负载因过热而意外关闭要好。
全部0条评论
快来发表一下你的评论吧 !