×

超高速数据中心的含义及其存在的技术问题概述

消耗积分:0 | 格式:rar | 大小:0.1 MB | 2017-10-20

分享资料个

  随着信息技术的普及,全球数据量每年都以超过50%的速度增长。为了应对信息爆炸性增长的挑战,建设超高速数据中心迫在眉睫。超高速数据中心指的是数据中心网络采用40G/100G网络互联技术,向外提供超百G带宽高速访问能力的数据中心。在超高速数据中心中,采用万兆服务器,接入层网络与万兆服务器对接,然后通过40G与核心网络互联,核心网络内部采用100G互联,同时与外部通过多条100G端口互联,这样的超高速数据中心提高超强的业务处理能力,可以满足未来几年业务增长的需求。国内在百度、阿里、中国电信都已经出现了这样的超高速数据中心,并且开始向外提供业务服务。

  40G/100G的标准几年前就已经发布,直到现在才开始逐步普及,原因是多方面的,一面是业务的需求推动,而另一面则是技术积累的不足。其实,超高速数据中心在实际运营中仍然面临着多个技术难题,这些难题在这两三年内将长期困扰着这些第一批“尝螃蟹的人”。网络互联由10G提升到40G,甚至100G,这需要新的光纤、光模块、光接口、设备内部的高速连接器,所有的通道都必须打通,这里面就存在不少的技术难题,下面将目前超高速数据中心中实际遇到的最棘手问题讲述给大家。

  1、CRC错包不断

  传统的10G互联提升到了40G/100G,传输效率提升了10倍,然而稳定性就降低下来了。这就好比开汽车撞到一支小鸟,不至于发生车毁人亡,但如果是飞机撞到了一支小鸟,就很可能机毁人亡,根本原因是撞击的速度不同,破坏力就不同。在一个10G互联的链路上如果光信号不稳或者链路质量不高,偶尔会出几个错包,但是换到40G/100G的高速互联网络,那么相同的链路质量在40G/100G网络中,错包的数量就会放大。不仅错包的数量会呈几何倍数增长,严重的情况甚至会让端口无法正常工作,无法转发正常流量。超高速数据中心对光路质量有着更高的要求,所以数据中心经常会受到链路校验CRC错包的困扰,即使是经过验收合格的布线系统也经常会出现,这些都是由于超高速数据中心对光路更加敏感而造成的。更换布线系统不太可能,只能是换光纤和端口,然后再观察。其实将布线系统放大,每条链路都是会有一些细微差异,而敏感的40G/100G就对布线系统质量要求很高,通过换端口,换光纤都无法缓解的话,有时就只能放任错包的存在了。

  2、端口UP/DOWN

  40G/100G端口对收光功率有着更加苛刻的要求,和错包问题一样,端口UP/DOWN情况也会随之出现,由于40G/100G端口商用不久,各厂家的端口实现,光模块技术都有差异,再加上要适配各种类型的PHY器件(通过PHY器件可以将流量的物理光信号转换为数字信号),所以难免会出现这类UP/DOWN问题,严重的情况甚至无法对接UP。有些40G/100G就要求两端要用一个厂家,甚至是一个厂家相同型号的设备,光模块也要用相同型号,才能保证适配UP,这类的问题屡见不鲜,在40G/100G相关器件还没有通用化的情况下,出现这类问题也是必然,这和当初10G逐渐推广与使用时遇到的情况如出一辙。

  3、功耗大、发热高

  40G/100G由于要处于高速转发状态,光模块功率较高,发热量大,当将一个运行一段时间的光模块拔下来,会有烫手的感觉。这类高速模块高速运转,自然功率都比较大,这样就需要网络设备提供更多的电。一般拥有40G/100G端口的设备耗电量要比普通设备高得多,给端口供电就要消耗很大一部分。同时网络设备还要考虑端口发热的问题,端口之间的距离不能过密,影响散热。目前网络设备单板卡/单设备最多只能提供24口的40G或者8口的100G,如果端口密度再高,散热就是大问题了。在网络设备内部同样都是40G高速连接,这些地方都是发热点,必须通过有效的通风将热量及时带出去。

  4、信号干扰

  当速率从10G提升到40G/100G,光信号的OSNR将会提升6dB,色散容限将降低到前者的1/16,PMD容限将降低到前者的1/4,光纤非线性危害程度也随之增加,这将带来一系列信号干扰问题。当传输速率更高时,其辐射越大,抗干扰能力也就越差。所以40G/100G端口要解决抗信号干扰的问题,这些高速传输的设备不宜放置在辐射过大的物体旁,容易对转发流量造成影响,甚至中断。40G/100G的抗干扰能力有待进一步提升。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !