当前位置:文档之家› 波束赋性

波束赋性

LTE 系统中双层波束赋形技术性能分析何桂龙北京邮电大学信息与通信工程学院,北京(100876)E-mail:hgleagle@摘 要:本文给出了单用户双层波束赋形(BF )技术带来的性能增益,提出了两种不同的双层波束赋形实现方案,并且分析比较了不同信道质量指示(CQI )反馈周期下两者之间的性能差异,理想情况下基于TxD 的机制性能要好,但在考虑基站端测量误差模型及用户端单天线传输时,TxD 方式有20%的性能损失,同时我们发现TxD 方式对信道质量反馈周期比较敏感,随周期增加性能下降明显。

关键词:波束赋形;预编码;信道质量指示1 引言长期演进(LTE )系统是UMTS 的演进方向,由于物理层采用了多入多出天线(MIMO )和正交频分复用(OFDM )等革命性的技术,链路层采用频域调度(FDPS ),混合自动重送请求(HARQ )等链路自适应技术,频谱效率得到了极大提高。

波束赋形作为一种下行传输模式,在消除小区间干扰并提高小区边缘用户性能方面发挥巨大的作用。

LTE R9中的单用户双层波束赋形技术是R8中单层波束赋形直接演进技术[1],能够进一步增大系统吞吐量。

本文首先介绍了双层波束赋形传输的系统模型,接着提出了两种实现双层波束赋形的方案,最后通过系统仿真验证分析比较了不同方案的优劣。

2 系统模型LTE Release 9引入双层波束赋形时的天线推荐配置是8x2,为了减少天线阵列所占空间,通常采用交叉极化的放置方式。

每4根天线一组对应一个极化方向,组内天线间距λ/2,利用强相关性形成一个波束,两组之间由于极化方向不同,相关性弱,因此能够形成两个子信道同时进行传输[2]。

图1 基站端天线配置 用户(UE )端接收到的信号是0000⎡⎤=+=+⎢⎥⎣⎦12W Y H C S N HWC S N W (1)其中1W 和2W 分别是每个共极化天线组的DoA 加权赋形向量[3],()()()1212,,,T or M W ωβωβωβ=⎡⎤⎣⎦L,(1)sin()j m m πβω−−=,M 是天线阵列个数,β是用户到达角(DoA ),预编码矩阵0C 的一个选择准则是arg max{()}H H trace =0CC C H HC ,即0C 可通过特征分解矩阵H H H得到两个最大特征值所对应的特征向量,或从固定码本中选出满足上式的矩阵。

[]12Ts s =S 是双流BF 传输的符号向量,N 是均值为零,方差为N0的独立同分布复高斯噪声向量。

TDD 系统中双流波束赋形通常有两种反馈方式,我们分别称为基于TxD 的方式以及基于PMI 的方式,下面简单介绍这两种方案。

基于TxD 的CQI 反馈机制中,由于时分双工(TDD )的互异性,基站测量上行导频信号得到信道状态信息,再通过SVD 分解取得预编码矩阵进行下行传输,但由于UE 无法知道基站(eNodeB )端传输使用的加权矢量,也就不能准确地测出实际数据传输所经历的干扰情况,这时在TxD 下采取这样的方式,UE 只报告单层传输时的0CQI 值,在eNodeB 端通过补偿增益得出双层传输的11CQI 和12CQI 值,然后利用补偿后的CQI 进行链路自适应,表示为:1101CQI CQI λ=+,1202CQI CQI λ=+。

其中1λ、2λ是信道协方差矩阵H H H 对应的两个最大特征值。

此方案假设基站端完全了解信道信息,再经过特征值分解来正交化两个子信道,这样保证用户没有流间干扰。

基于PMI 的闭环反馈机制中,基站发送固定的增益补偿值给用户,这样UE 就能够进行比较正确的秩选择,同时根据最大增益准则从R8 2x2预编码码本选出预编码矩阵,这时UE 计算的CQI 就能够较好的反映流间干扰,基站根据情况决定是否采用用户推荐的秩。

此方案要反馈CQI/PMI/RI ,会增加开销。

3 系统级仿真为了比较两种方案的优劣,我们进行了详细的系统仿真来评估性能。

我们使用3GPP 宏小区case#1仿真场景,具体参数及仿真假设可见表1。

仿真时只在中心小区进行均匀撒点,所有用户使用相同的传输机制,假设干扰小区基站进行单层传输来计算其对中心小区用户的干扰。

用户端基于最小均方误差(MMSE )接收机模型的输出显式计算出信干噪比(SINR )和CQI 中的流间干扰。

表1 系统仿真参数参数假设 场景3GPP Macro Cell case#1 小区分布Hexagonal grid, 19 cell sites, 3 sectors per site 载波频率2.0GHz 传输带宽10MHz 系统负载每扇区10个UE 用户速度 3km/h信道模型 8x2双极化SCM, 0.5*lamda 间距控制与信令开销 PDCCH 3个控制符号CRS: antenna port 0 and 1 enabledDRS: 12 RE per PRB for dual layer信道估计Ideal CQI/PMI 反馈 BestM, 3 PRB 频率粒度(subband)Sounding 配置宽带探测,5ms 周期,估计误差(正态统计分布,相位误差0.2pi 标准方差) 秩自适应动态 外环链路自适应(OLLA)Enabled, 20% BLER target调度算法时频比例公平HARQ 6 process, Chase combining, max 4 trans接收机类型MRC/MMSE链路级与系统级接口EESM业务模型Full buffer基站端采用各种无线资源管理(RRM)算法来跟踪信道变化[4],如图2所示,时频调度器是整个框架的控制中心。

由于用户反馈的CQI存在测量,量化及处理时延等方面的误差,基站端使用了外环链路自适应(OLLA)算法,它能够起到稳定第一次传输目标误块率(BLER)的作用。

OLLA首先根据接收到的Ack/Nack决定给每个用户的传输是否成功,并基于这个输入提供一个补偿参数给外环链路自适应(ILLA)。

ILLA在做链路自适应判决前根据补偿值调整接收到的CQI值,然后估计出所能支持的数据速率和调制编码方式(MCS)。

小区内每个UE有一个OLLA算法,所以ILLA使用的不同补偿值决定于UE。

时域调度(TDPS)首先决定每个子帧能够复用的最大用户数,频域调度(FDPS)再按某种算法分配资源块(RB)给这些用户。

调度器会最先满足等待重传用户的需求,保证这些用户分到的资源与第一次传输相同。

这里我们假设每个传输时间间隔(TTI)都使用标准的时频正比公平调度算法来分配物理资源块(PRB)到不同的用户,所有资源块以相同的功率传输,被调度到用户的MCS每个TTI更新一次,并且在这个用户分配到的PRB上使用相同MCS。

图2 无线资源管理框架4 结果分析图3 双层波束赋形与单层波束赋形CDF曲线比较表2 波束赋形具体频谱效率值平均频谱效率(bps/Hz/Cell) 小区边缘频谱效率(bps/Hz/Cell) 2x2,单流闭环MIMO 1.276 0.49 2x2,双流闭环MIMO,秩自适应 1.375 0.488 8x2,单层波束赋形 1.88 1.024 8x2,双层波束赋形,秩自适应 2.224 1.042从图中可看出波束赋形的两条CDF曲线在频谱效率低时相重合,随着频谱效率增大两条曲线的间距逐渐扩大,说明秩适应能够正确的选择层数,小区边缘用户SINR低,偏向于选择单层传输,而小区中心用户的SINR高,选择双层传输的概率大。

相对于单层波束赋形,双层波束赋形大概有18%的平均频谱效率提升,而且小区边缘频谱效率并没有损失。

作为比较,闭环2x2 MIMO从单流到双流只有7.8%的平均性能增益。

图4 PMI与TxD平均频谱效率比较从图中看出不加误差模型的情况下,TxD机制的平均小区吞吐量有8.9%的增益,但小区边缘用户吞吐量有 6.2%的损失。

实际系统由于射频单元的影响,上行测量的信道状态信息不能直接应用到下行传输,TxD机制不能直接利用TDD的互易性,需要进行较准,同时还要考虑上行信道估计误差,在基站端加了较准误差和测量误差模型后,TxD机制性能损失明显,达到6.3%。

如果再考虑UE端收发功率放大器的限制,基站端只能从UE单根天线发射的Sounding参考信号得到部分信道状态信息,可以看到性能下降明显,平均吞吐量有20.3%的损失,小区边缘有28.5%的损失。

图5 不同反馈周期下PMI与TxD的性能上图给出了PMI机制在不同的CQI/PMI反馈周期以及TxD机制下不同CQI/SRS周期的性能比较,可以看出在TxD机制下周期从5ms增加到40ms时用户平均吞吐量有8.7%的损失,小区边缘吞吐量有5.4%的下降,而PMI机制在用户平均吞吐量方面几乎没有损失,对应的小区边缘吞吐量只有3.2%的损失。

这是由于TxD机制需要不断更新短期的信道状态信息来获得预编码矩阵,随着周期的增加,得到的信道状态信息越不准确,系统性能下降就越明显。

而PMI机制使用的预编码矩阵本身就是从有限的码本中选择的,其所选矩阵偏离正确值的概率变小,性能损失也就减少了,所以它对周期的敏感度低于TxD。

5 结论这篇文章我们分析了两种不同的双层波束赋形策略,相对于单层波束赋形,双层波束赋形大概有18%的平均频谱效率提升,而且小区边缘频谱效率并没有损失。

基于TxD的机制相对PMI机制有8.9%的增益,但在考虑基站端较准和测量误差模型以及UE端单天线发送参考信号的情况下,TxD方式却有20%的性能损失,同时我们发现PMI方式对信道质量反馈周期更健壮,而TxD方式则比较敏感,随周期增加性能下降明显。

参考文献[1]Work Item Description for "Enhanced DL transmission for LTE [R].RP-090359:CMCC, March. 2009.[2]LTE DL Beamforming Performance and Evolution to Dual Stream [R].R1-091753:Nokia, Nokia SiemensNetworks, May. 2009.[3]L.Godara.Application of antenna arrays to mobile communications. ii. beam-forming and direction-of-arrivalconsiderations [A].Proceedings of the IEEE, vol. 85, no. 8, pp. 1195-1245, Aug 1997.[4]Pokhariyal, K.I.Pedersen, G.Monghal, et al.HARQ Aware Frequency Domain Packet Scheduler withDifferent Degrees of Fairness for the UTRAN Long Term Evolution [A].IEEE Proc. Veh. Technol. Conf., May. 2007.Performance Analysis of Dual Layer Beamforming in LTESystemHe GuilongSchool of Information and Communication Engineering, Beijing University of Posts andTelecommunications, Beijing (100876)AbstractIn this paper we evaluate the performance of single and dual layer beamforming. Two different dual layer beamforming schemes are proposed. We analyze the performance gain with different channel quality indicator feedback period. We show that TxD based scheme improves in ideal situation, but it suffers a gap of 20% with theconsideration of measurement error model in base station and single antenna sounding in UE. Furthermore, it is shown that TxD based method is more sensitive to channel quality indicator feedback period and performance decreases with increased period.Keywords: Beamforming;Precoding; Channel Quality Indicator。

相关主题