摘要:泊松散弹噪声具有非线性、非加性的性质,因而受到研究者的广泛关注。20世纪80年代以来,大量关于泊松信道速率和容量的成果被提出。然而,由于泊松噪声的特殊性质,导致速率公式复杂,过去的研究成果大多集中在理论极限性能的推导上下界的问题上。提出了一种基于深度学习的方法,针对复杂的速率公式,给出了非理想条件下的最优解,对于实际系统的性能有一定的参考价值。并且,深度学习较传统梯度下降搜索算法有更高的泛用性和更快的速度。
引言
在无线光通信系统中,接收端光子计数器产生的噪声符合泊松分布,具有特殊的性质。在过去的研究中,泊松噪声多被近似为高斯噪声处理。然而,这一近似方法仅在光强较大时适用。近年来,许多学者尝试针对泊松噪声模型进行更精确的理论分析。GongChen研究了连续泊松信道速率模型下的功率分配[1],Verdu推导出了泊松速率公式的一些性质[2]。AmosLapidoth在对离散泊松速率公式近似化简的基础上,推导了泊松信道速率的上界和下界[3]。然而,由于公式的复杂度较高,仅在发射功率较低时才有较好的近似效果,可用于研究系统的极限性能,但不易应用于针对实际系统的研究。而近年来广泛应用的深度学习技术可研究复杂公式的性质,简化了分析的难度,对于实际系统有一定的参考价值。
1、研究内容
1.1泊松信道速率
采用光强调制/直接检测(IM/DD)的单用户无线光通信系统的结构,如图1所示。
图1单用户无线光通信系统
信号经过码率为Rc的重复码编码之后,采用OOK调制,通过电压变化驱动发射源激光二极管(laserdiode,LD),在每个时隙内发送相应的光子数。发送信号x=1时,发射光子数为2nsRc,x=0时不发光。接收端光电检测装置(photondetector,PD)将光子数转换为电信号。背景光nb会对接收端光子计数的结果产生影响,每时隙的背景光为nbRc。
接收信号r符合泊松分布,如式(1)。
P(r|X=x)=e−(2nsRc⋅x+nbRc)(2nsRc⋅x+nbRc)rr! (1)
根据互信息定义,推导出泊松单用户可达速率公式,如式(2)。
I=12∑x=0,1∑r=0∞P(r|X=x)log2P(r|X=x)P(r|X=0)+P(r|X=1) (2)
将式(1)代入式(2)可得式(3)。
I=12∑r=0∞e−(2nsRc+nbRc)(2nsRc+nbRc)rr!log2[21+(nb2ns+nb)re2nsRc]+12∑r=0∞e−nbRcnbRrcr!log2[21+(2ns+nbnb)re−2nsRc] (3)
考虑单用户并行信道场景。用户采用不同频率的光同时发送信息,大气中的背景光会对其形成干扰,不同频率的光子在大气中的数量不同,即并行信道中各信道噪声不同。在给定发射总光子数的前提下,合理分配各信道光子数,使和速率最大化。优化问题,如式(4)。
max∑kIk(nsk,nbk)Subjectto∑k=1Knsk=Ns (4)
其中,Ns为总发射光子数,nsk为第k信道发射光子数,nbk是第k信道的背景光子数。
经典高斯系统中,在信道噪声不同的场景下进行功率分配时,采用的是数学推导的方法,得出最优的分配方式。而泊松速率公式十分复杂,难以通过数学推导直接求出最优功率分配,所以我们采用深度学习算法来解决这一问题。
1.2深度学习算法
近年来,深度学习与人工智能在众多研究领域取得了突破性的成绩,也使得神经网络成为解决问题的可行方案[4,5,6,7]。
神经网络(NeuralNetwork,NN)是一个有较多隐层的传统多层感知机(Muti-LayerPerception,MLP),对于一个L+1层的神经网络,我们将输入层写作层0,输出层写作层为L层。
在每一层中,进行如下计算如式(5)。
vl=f(zl)=f(Wlvl−1+bl),0<l<L (5)
其中,zl=Wlvl-1+bl∈RNl×1,vl∈RNl×1,Wl∈RNl×Nl-1,bl∈RNl×1,Nl∈R,分别是激励向量、激活向量、权重矩阵、偏差系数矩阵和第l层的神经元个数。
具有足够多隐层的MLP是一个通用的近似算子,有足够大的隐层的MLP可以近似任意一个从输入空间RD到输出空间RC的映射g:RD→RC。如图2所示。
图2一个典型的用于解决近似算子拟合的神经网络结构
神经网络作为多隐层的MLP,自然可以作为一个通用近似算子。神经网络采用对目标函数(误差函数)进行反向传播与梯度下降的方法,实现对近似算子的拟合。这种拟合在一类不具备结构化公式的问题以及在一类复杂的结构化公式的最优解问题上得到了较为广泛的应用[8,9]。
1.3优化算法设计
本文聚焦于多信道的泊松噪声下用户功率的优化问题,采用深度学习的方法,对传统复杂问题的最优解进行梯度下降形式的搜索工作。本文所建立的模型具有传统方法不具备的优势:
1)传统的数学方法使用求偏导的方式对高复杂度的数学公式进行梯度的计算和迭代来求取最优解,效率较低且易陷入局部最优。
2)神经网络在没有离散标签的情况下,无法有效进行离散形式的输出。
算法的主要改进有两点。第一,采用特殊构造的输入对网络的收敛方向进行控制。纯随机的变量输入会导致网络的输出的不稳定,由于本文所构建的目标函数的级数较大(近似为有限阶乘),训练过程中易造成梯度爆炸。第二,目标函数需要离散值作为输入。由于梯度只能保存在连续的变量中,离散的输出值会导致梯度消失。算法的具体细节如表1所示。
算法采用保存对连续变量近似到最近离散值(自然数)的方法,将去除梯度的近似距离作为加函数叠加到原始输出值上,解决梯度消失问题。算法中Nb代表背景光子数组合,Rate代表分配的发射光子数组合,model代表神经网络,I代表目标函数,具体参见公式(3)、(4)。
2、仿真和分析
2.1仿真设置
本文中使用的实验平台为Windows10操作系统,硬件环境为2核Intel(R)Core(TM)i5-7500CPU@3.40GHz,内存为24GB,显卡为NVIDA的GTX1060,显存为6G。本实验模型实验均在Pytorch环境下搭建。
本文采用的实验数据根据1.1节所介绍,由于不同频率的光同时发送信息,大气中的背景光会对其形成干扰,而不同频率的光子在大气中的数量不同。本文根据不同的环境条件,共进行3组实验,环境参数设置分别为:
表1离散输出限制下的神经网络BP算法
其中,batch_size代表参与一次梯度下降的批次大小,前两组由于输入固定,为了符合神经网络并行计算的要求,batch_size的值大于等于2;第三组由于求取泛化的最优解,故设置batch_size为100。K代表信道数。Rc与R为常量。ns_ave代表网络输出上增加的手动偏移,由于默认背景光总数为40*信道数,故设置网络的初始搜索点为40+初始的网络输出值。ns_total代表信道的背景光总数。采用的优化器为adam,学习速率为0.001,训练总次数设置为50个迭代。
由于信道数在3,4的情况下,可以用遍历的方法得到函数的最优解,故本文采用组一组二两组来验证模型最优解的可行性。信道数较高情况下(>=10),使用遍历的方法得到函数最优解的计算代价过大,神经网络的泛化性使得模型在不同输入情况下,可以产生泛化的目标输出,以此减小传统方法的计算资源浪费,故采用实验组三的参数,来验证预训练的模型可以在不同背景光子参数输入下得到不同最优解,达到模型泛化与效率提升。
2.2实验结果与实验分析
如图3所示。
图3可遍历验证的三信道与四信道结果的收敛曲线
三信道与四信道实验结果可见,模型所采取的使用近似距离来保存梯度的方法,对于网络的训练是有效的。模型在40-50个epoch时收敛于最优值附近。
模型的输入分别为5,5,50(三信道)与5,5,5,50(四信道)。由遍历法可得,最优解为37,37,46(三信道)与38,38,38,46(四信道),与模型收敛值曲线的最高点所在信道功率相同。如图4所示。
图4单用户10信道结果
根据实验所产生的结果模型在每个epoch随机生成10个背景光子组合进行了评估并记录所有性能的均值,最后,展示了性能的变化折线。由曲线可见,模型在随机产生的背景光子组合下的性能逐步提升,最终收敛在9.42附近,证明在不同的背景光子下,模型产生的最优解产生了足够强的泛化性,使得和速率输出稳定。
2.3优化性能分析
将训练好后的模型应用于实际场景中,随机选取一组背景光子Nb,选取不同信道数场景,比较均匀功率下的性能和经过优化后的系统性能,如图6所示。
图6系统性能增益曲线
由图6分析可得,经过训练后的模型,在10信道与30信道的情景下,在不同的背景光子总数下,优化算法对系统的性能都具有明显的提升。其中在10信道下,优化算法对和速率的提升随着发射光子总数的增大基本稳定,而在30信道下,和速率提升随着发射光子总数的增大而逐渐增大,这说明在信道数较高且发射总光子数较大的情况下,优化算法对和速率的提升更加明显。
3、总结
本文使用深度学习的方法对泊松单用户并行信道的优化进行了研究,针对搜索离散变量最优解的问题,对算法做出了一定的改进。由仿真结果可知,对于泊松散弹噪声受限光子计数问题,深度学习可通过梯度下降的方法进行离散最优点搜索,这种方法为解决泊松优化问题提供了一种新的思路。仿真结果显示,算法在不同的信道数与不同总光子数条件下均可得出最优解,并具有较强的泛化性。
胡思逸,沈岱灵,周小林,凌力.基于深度学习的泊松散弹噪声受限光子计数通信系统速率优化研究[J].微型电脑应用,2020,36(06):1-4.
基金:国家自然科学基金项目(61571135)
分享:
在扩频通信系统中,四相相移键控(Quadrature⁃PhaseShiftKeying,QPSK)信号具有误码率低、频谱利用率高等特点[1,2],应用越来越广。为了提高其抗干扰性,I、Q支路分别调制扩频码,如果载波多普勒动态范围大,不完全解扩I、Q支路上的扩频码情况下,锁相的环路无法直接进行载波捕获[3]。一般的扩频系统中都是先进行FFT运算对载波进行初始捕获,再通过锁相环进行跟踪捕获,可见精确的FFT算法是至关重要的[4]。
2024-01-03需要解决的问题。典型远程探测场景下,4 000 km处干扰机与弹头之间的角度间隔仅为0.02°~0.05°,导致常规的单站抗主瓣干扰手段力不从心。例如:利用和差波束的主瓣对消方法可以抑制近主瓣干扰(≥1 5波束宽度)[1,2,3],但对上述场景的目标信干比改善不足5 dB,不满足实际应用需求;盲源分离方法[4,5,6,7,8]利用混合信号相对于源信号统计特性变化找到信号的分离点,从而实现干扰与目标信号的分离。
2024-01-03显示玻璃破碎机理为玻璃缺陷位置应力集中导致裂纹萌生与扩展,并采用断裂分析技术解析起源位置、裂纹扩展、应力类型、冲击和摩擦方向等,全方位研究了玻璃断裂机理;文献[2]研究表明,显示玻璃强度主要取决于表面及边缘缺陷,并通过表面强度测试[3,4]、边缘强度测试[5,6]和冲击强度测试[7,8]表征玻璃强度;文献[9]基于神经网络算法,通过选取玻璃缺陷图像进行神经网络训练,对常见玻璃缺陷进行精确分类及识别。
2024-01-03随着城市化进程的加速,高层建筑物的数量不断增加,电梯已成为高层建筑中必不可少的交通工具[1]。尽管电梯内的电波传播不受自然气候因素的影响,但是电梯环境封闭、区域结构复杂、室外信号难以穿透等因素导致电梯内网络信号较差,严重影响了人们的通信体验和面临突发事件时的应急通信保障。因此,电梯信号覆盖成为各大运营商关注的重点。
2024-01-03正交时频空(Orthogonal Time Frequency Space,OTFS)调制是一种能够面对高速移动通信特性的先进调制技术。OTFS通过将发送数据经预处理和星座调整后映射到时延⁃多普勒(Delay⁃Doppler,DD)域,并经过一系列的二维变换使得同一个发送OTFS帧内的信号捕获到DD域等效信道的稀疏性,都经历了与时间选择无关的慢衰落,从而获得信道时间和频率的全分集增益以及更优越的抗干扰性能[3]。
2024-01-03早期的研究通常采用人工提取特征和传统机器学习方法进行情感识别.Bahari等[7]采用非线性k基于递归图的最近邻分类器(KNN),以识别不同的情感.Wang等 [8]使用基于频域特征的支持向量机(SVM)分类器对不同情感进行分类.然而,传统机器学习技术受到特征设计和特征选择的限制,需要大量的专业知识才能设计出性能更优的分类器.
2024-01-03无线传感器网络(Wireless Sensor Network,WSN)已广泛应用于许多领域,如森林火灾监测、建筑监控等[1,2,3]。一般来说,无线传感器网络由大量的传感器组成。由于这些传感器由能量受限的电池供电,网络的运行时间通常是有限的,这阻碍了传感器网络的发展[4,5,6]。考虑到每个传感器的电池容量是有限的,在电池耗尽之前补充传感器的能量供应至关重要。
2024-01-02快速傅里叶变换(FFT)是数字信号处理领域应用最广泛的算法,其广泛应用于数字通信、雷达系统、成像系统以及图像处理系统中。随着现代数字信号处理技术的发展,系统对于FFT的数据处理精度有着更高的要求。同时,不同的应用环境需要使用不同点数的FFT,对于当前的数字信号处理系统来说,也存在不同点数FFT动态实时切换的应用场景。因此,需要高精度、点数可配置的FFT处理器。
2024-01-02社区是城市的重要组成单元,社区治理水平直接影响城市的治理水平。为了提升社区智慧化管理水平,物联网技术被广泛应用[3,4,5],大量的水压[6,7]、烟感[8]等方面的感知设备在社区部署。大量物联网设备产生了海量的未清洗感知数据[9,10],冗余消息甚至是误报消息夹杂在一起,加重了社区运营管理负担;同时,部署设备的运维与管理也处于空白状态。
2023-10-23随着物联网(IoT)应用的大规模部署,室内人体活动检测受到了越来越多的关注。现存的系统大多需要人员携带传感器等外部设备,存在许多的局限性,如百度的“Baidu Eye”,哈工大的可识别手指的字母手套“CyberGlove”等。基于摄像头的活动识别无需携带外部设备但受限于光照和隐私等外部因素。
2023-09-06我要评论
期刊名称:光通信技术
期刊人气:804
主管单位:中国电子科技集团
主办单位:中国电子科技集团公司第三十四研究所
出版地方:广西
专业分类:科技
国际刊号:1002-5561
国内刊号:45-1160/TN
邮发代号:48-126
创刊时间:1977年
发行周期:月刊
期刊开本:大16开
见刊时间:1年以上
影响因子:0.407
影响因子:0.095
影响因子:0.500
影响因子:0.497
影响因子:0.353
400-069-1609
您的论文已提交,我们会尽快联系您,请耐心等待!
你的密码已发送到您的邮箱,请查看!