从OFC2020看高级算法在光通信中的应用

通信网络

638人已加入

描述

各种神经网络算法(XNN)在大数据机器学习和人工智能领域有着十分广泛的应用,这些高级算法在分类、优化、自学习这些方面的突出能力和其在互联网及自动控制领域的优异表现是毋庸置疑的,自然这些年也是火得一塌糊涂了。不过,之前一直没有过多地关注AI相关的高级算法在光通信领域的应用的。本次OFC预计算是比较火热的一次盛会了,各种技术热点,高波特率相干,高带宽集成器件,400G/600G 实时传输,超宽带光放大,概率整形的芯片实现和优化等都有较多的文章涉及。

**1. **高级算法辅助概率整形,开辟新途径

有两种科研idea让人叹为观止:一种是“唉,这个我就是想不到啊”,另一种是“唉,我怎么就想不到啊?”。这篇文章就是属于第二种。看完了之后,觉得很有道理,也很简单,但只后悔自己之前没想到。

常规的概率整形,一般是先根据信道情况和系统需求,选定一个基本的星座图,设定一个Entropy,然后利用MaxwellBoltzman分布求得整形系数及星座图上每一符号出现的概率,然后再通过一些分布匹配器(DM)去做多对一的映射和二进制标记。这种常规的概率整形(PS)的性能通常是最优的,不过有个前提条件,那就是信道是AWGN。而对于光纤信道,显然,某些场景下并不满足这一假设,特别是在有非线性效应的时候。这也为进一步探测概率整形方法和提升性能开辟了机会窗口。怎么做呢?

人工智能

图1. 基于训练序列的星座误差图样估计

如图1所示,先利用均匀分布的QAM星座图作为训练序列,经过光纤信道传输后,在接收端统计星座图上每个点(符号)出错的情况,并把误符号率(SER)按照符号的位置记录下来。

然后再采用投影梯度下降算法(PGD)来求解最优的发射星座点概率分布,使得信道的互信息量(容量)最大,用数学表述为下述优化问题:

人工智能

其中,alpha是一个调整熵的整形参量,第一个约束条件是为了限制使得那些容易出错的符号的概率变小,第二个约束条件则是为了满足发端所有符号出现在概率之和为1。通过一番高端大气上档次的优化算法之后,可以得到给定目标entropy的优化概率分布。然后再利用CCDM来将幅度映射成符号,完成概率匹配。优化后的星座点概率图示如下。

人工智能

图2.PGD优化求解后的发端星座点概率分布示意图

然后作者在 VPI中建模对以下三种场景进行了仿真对比,从整形后的SER情况来看,得出的结论是,在保证相同的entropy条件下,这种新的概率分布性能不差于常规的PS算法。并且也通过简单的实验作了验证,经过这种整形之后SER性能优于不整形的16QAM。

人工智能

图3. 仿真的三种场景及整形前后效果对比

其实,这种方法看起来高端,实际上思路是我们之前在别的地方经常用到的。用均匀概率分布的信号作导频估计符号错误图样,这是在OFDM自适应调制的时候惯用手法;先估计出损伤的相对影响,然后反过来在发端来进行抑制的思路在发端预失真的时候也是很常用的。不过一般人还真是没有想到。不过这篇文章,还是有很多地方可以继续深入探讨灌水的。比如约束条件的重新构建,相位噪声恢复算法的影响等。

即便如此,这篇文章的意义我觉得还是特别明显的。1)解决了单圈星座图的概率整形问题,比如按这个思路QPSK也可以整,这样就有可能缩小频谱效率小于2时候,QPSK与香农极限之间的Gap; 2)对于非方形QAM也可以实现MB分布整形;3)为解决非AWGN信道,有非线性效应时的最优概率整形的求解提供了示范。

**2. **高级算法用于几何整形,改善性能

与概率整形(PS)不同,几何整形(GS)需要优化星座图上每个星座点的位置。这篇文章中,作者引入神经网络算法对32QAM和 128QAM进行一维和二维的星座图及比特映射优化,实验验证了优化的几何整形,对于800G 32QAM和1T 128QAM性能提升分别约为0.98dB和 1.21dB。

人工智能

图4. 基于神经网络的几何整形星座图优化结果

3. 神经网络用于OSNR****监测,从原型机走向产品

Ciena已经将包含35个输入,2个隐含层,每层5个结点的神经网络做成相干光模块的固件,用于分离非线性效应噪声,从而精确地估计系统的OSNR,并且对非线性效应不敏感。经过仿真数据训练后用于56G~400G实时相干光模块中进行实验验证,得到了较好的OSNR估计精度,如图5所示。

人工智能

图5. 基于神经网络的OSNR估计模型的训练和估计结果

该模型在Ciena Wavelogic AI不同速率,配合不同种类光纤链路情况下估计精度分别为(系统偏移及波动标准差):56G200G是0.04±0.25 dB,56G300G是-0.03±0.29ddB, 56G~400G是-0.12±0.48dB。

4. 神经网络用于PON 中高速信号均衡, FPGA****原型验证

国内有研究团队将神经网络算法用于50G接入网,实现对带宽限制效应的均衡,有望将10G级别的 DML器件超频传输50Gb/s PAM4信号。而Nokia更是将神经网络算法做成了定点,然后通过离线实验比较了50Gb/s NRZ系统中它与经典的 6抽头的最大似然序列估计算法(MLSE)的均衡效果。实验表明,神经网络算法在光背靠背(OB2B)和30km光纤传输时相对于MLSE均衡有0.2dB和0.7dB的性能提升。作者还通过降频降速,将神经网络均衡算法在 FPGA上进行了验证,并评估了其复杂度和对资源的消耗,分析表明,神经网络算法比6抽头的MLSE复杂度还要高,如果要将该算法实用,还需要进行优化。

人工智能

图6. Nokia在50G PON中验证神经网络均衡算法实验框图

从今年的OFC论文中,可以感受到新技术从概念探索到讨论关注到实用产品化已经变得非常迅速了,每个阶段的痕迹已经不明显了。也许下一代光通信产品革命的号角已经吹响,是AI,是新算法,还是新特性?我们拭目以待,可是你准备好了吗?你的产品准备好迎接这场变革了吗?

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分