5G里用的OFDM技术,带来了一个挺大的设计难题——信号的峰值功率和平均功率之间,天生就有很大的动态波动。这种峰值平均功率比(PAPR)会让传输效率变低。
为啥呢?因为OFDM波形是由多个正弦信号叠加而成的,这些信号有时候会相互增强,有时候又会相互抵消。这么一来,某些时刻的信号最大功率和平均功率之比就会变得很高。PAPR高的信号,会让功率放大器(PA)工作在非线性区域。
高PAPR会带来两个问题:一是带外失真会造成邻道干扰,还可能违反频谱发射模板(SEM)的规定;二是带内失真会降低传输吞吐量。为了解决这些问题,无线电的功率放大器就得工作在1dB压缩点(P1dB)以下。这么做虽然能提高线性度,但代价是放大器的效率变低了。所以我们需要降低PAPR的技术,让功率放大器既能高效工作,又能保持良好的线性度。
目前已经有好几种降低OFDM信号PAPR的技术了,主要分两类:一类是会导致带外失真的“失真类方法”,另一类是“无失真方法”。
PAPR的原理
OFDM波形是由多个正弦信号叠加而成的。如图1所示,当这些正弦信号在同一时刻都达到最大值时,就会产生相长干涉——这时候OFDM波形的输出包络会突然升高,形成由这种叠加增强特性导致的高峰值。
而在其他时候,这些正弦信号会产生相消干涉,也就是相互抵消,导致OFDM波形的输出包络出现低谷。另外,图1的例子里正弦信号的幅度是固定的,但实际中它们的幅度是动态变化的。这种幅度变化加上相消干涉,会让输出包络的平均值变低。
所以说,OFDM波形的一大特点就是PAPR比较高。
图1. 四个正弦信号之间的叠加增强现象,会产生高峰值,进而导致高PAPR。
图2能看出来,像OFDM这种动态范围大、PAPR又高的多载波信号输入到PA里时,放大器会工作在非线性区域。这样一来就会产生带外失真,既违反SEM的规定,还会干扰旁边的信道,产生不必要的辐射。
放到无线通信层面,这会导致信号覆盖差、通话掉线,服务质量也跟着下降。要是降低功率来避免放大器过载,又会让功率效率变低,信号覆盖范围也会缩小。所以,降低PAPR是个挺靠谱的解决办法。
图2里,输入信号的PAPR是13dB。用降低PAPR的技术能把它降到7dB,这样功率回退量就能减少6dB,功率放大器的效率也会因此得到明显提升。
图2. 峰值降低技术能减小PAPR,这样功率放大器的输出功率回退量就能减少了。
高PAPR是多载波信号(比如OFDM信号)在实际应用中遇到的一个大问题。假设在(0,t)这个时间区间里,有一个长度为N的调制数据序列A =(A0,A1,…,A(N-1)),其中Ai是从某个信号星座图里来的符号,t是符号持续时间,那么这个N载波的OFDM信号包络就可以表示为
其中ω0?=?2πT?,j?= -1
发射信号x(t)的PAPR,就是这信号的最大功率和平均功率的比值,可以这么定义:
这里的E指的是期望算子,作用是计算信号的平均幅度。
另外还有个要考虑的参数叫峰值因子,文献里经常提到,它的定义是PAPR的平方根。
降低PAPR的技术
到目前为止,人们已经提出了不少降低通信系统中高PAPR的技术。总的来说,这些技术可以分成两类:基于失真的和无失真的。
前一类(基于失真的)会产生一些失真,可能违反SEM的规定。像限幅、噪声整形、峰值加窗、峰值抵消这些技术都属于这一类。不过在系统设计中,既然核心目标是提高效率,那稍微有点失真其实是可以接受的。
无失真技术有时候也叫加扰技术,这类技术需要给接收设备发送一些辅助信息,这会让系统变得更复杂。而且,3GPP也没给用户设备定义相关的协议。部分传输序列和选择性映射就属于这类技术,但它们在4G和5G移动系统里不太实用。所以,基于失真的技术反而更受青睐。下面我们就来聊聊无线通信系统里常用的峰值抵消技术。
峰值抵消技术
图3展示了目前最靠谱的PAPR降低技术:峰值抵消(PC)。流程是这样的:先检测出信号里的峰值,然后把这些选出来的峰值分配给峰值抵消引擎(PCE)处理。每个PCE会获取峰值的幅度,再用峰值的相位乘以经过滤波的幅度,生成一个经过缩放的脉冲。
每个PCE在处理时,会占用和滤波器长度相当的时间,后面进来的峰值得等当前PCE处理完才能继续。最后,所有PCE的输出会汇总起来,再从延迟后的输入信号里减去,以此抵消掉那些高峰值。
不过峰值抵消技术有个主要缺点:要达到3GPP规定的性能要求,至少得用两级处理。这样一来,系统的复杂度和延迟都会增加。而且如果带宽更大,或者用于多载波场景,需要的处理级数还会更多。
图3. 峰值抵消技术通过峰值检测和滤波处理,来降低OFDM信号中因多个正弦波峰值重合而产生的高峰值。
降低PAPR面临的挑战
现代5G系统在实现PAPR降低时,面临着不少难题。
1、多频段和多载波的问题
随着分量载波(CCs)数量增加,时域信号包络的选定窗口里会出现更多峰值。这些峰值靠一两级处理根本抵消不完,得增加处理级数才行。
尤其是在异频带载波聚合的场景下,不同分量载波之间间隔很大,这会导致每个选定窗口里出现多个连续的超阈值峰值。这时候用峰值抵消(PC)技术处理,容易产生较高的EVM。所以在选这些峰值、设计滤波器的时候,得更仔细地考虑,才能满足EVM的要求。
图4展示了普通峰值抵消(PC)技术和新提出的峰值抵消技术处理限幅信号后的结果。很明显,普通峰值抵消技术处理时,选定窗口里的连续峰值之间没有间隔,这就会出现峰值再生,甚至可能超过阈值。这样一来,就会违反频谱发射规定,还会让EVM变差。
而新提出的峰值抵消技术能抑制峰值再生,因为它让峰值之间有了间隔,避免了有限脉冲响应(FIR)滤波器的旁瓣相互重叠——这正是峰值再生的根源。
图4. 带间隔和不带间隔的峰值抵消(PC)处理后的信号幅度。
2、延迟问题
端到端延迟是保证用户体验的重要因素之一,尤其是在5G的超可靠低延迟通信(uRLLC)这类服务里。峰值抵消技术需要好几级处理才能降低信号里的高峰值,它带来的延迟最多能到10微秒,差不多占了3GPP Release 15里规定的总延迟的10%。
3、复杂度问题
增加峰值抵消的处理级数,会让系统的复杂度和功耗都上升。特别是用FPGA实现的时候,复杂度提高还会增加系统成本。
4、EVM问题
EVM是衡量基站发射信号质量的关键指标之一。用峰值抵消技术的时候,降低PAPR的能力和EVM性能之间得做个平衡。这一点很重要,因为PAPR降得越多,功率放大器的效率就越高。虽然我们希望能大幅降低PAPR,但也得满足EVM的性能要求。
要进一步降低PAPR,就得把峰值抵消的阈值设得更低,这样在搜索窗口里检测到的峰值数量就会多很多。为了避免EVM变差和峰值再生,只能挑选那些相互之间有一定距离的连续峰值,送到峰值引擎里处理。要知道,峰值再生就是连续峰值导致的——因为峰值抵消的输入信号是经过上采样的,所以这些连续峰值可能会同时超过阈值。而峰值再生会造成频谱泄漏、带外辐射,还会让EVM变差。
总结一下
大多数通信系统都需要降低PAPR。高PAPR的信号传到功率放大器后,会产生频谱再生,违反频谱发射模板的规定,还会降低网络的吞吐量。所以必须用降低PAPR的技术来解决这个问题,提高功率放大器的效率。在现代无线系统里用这些技术的时候,得仔细考虑各种因素,做好权衡。