Advertisement

基于AI的无线空口技术研究

阅读量:

摘 要

针对现有无线通信系统中空口传输性能损失等关键问题

0 1

概 述

目前

目前,AI技术在空口方面的应用主要体现在以下几个方面。

无线环境建模及感知技术的应用。基于人工智能算法对无线传输环境进行学习与总结,从而帮助通信系统实现智能调度、完成功率控制以及实现波束管理,并对参数选择与配置进行优化设置。该技术能够构建一个动态更新的'无线电空间'模型图,并为系统设计者和决策者提供实时决策支持信息。此外,在该过程中还可以有效降低系统运行时的测量反馈开销。

b)信道估计、预测与反馈应用。利用AI算法对MIMO系统中的信道数据进行采集与训练,并通过AI模型分别对信道状态信息进行估计以及基于导频序列的预测,在接收端通过导频序列分别估计发送端与接收端之间的信道状态信息,并进一步推断接收端自身的信道状态信息的问题。

c)协同优化发射端与接收端。在特定信道环境下,在复杂且存在多种非线性影响的非传统信道环境中,在通过神经网络学习复杂和异常的信道特性后,在此环境下实现对射频系统中的射频放大器和低噪声抗干扰电路进行协同设计优化;从而提升射频放大器和低噪声抗干扰电路的整体性能水平。

d)就信道编译码技术而言,在哪些方面有应用?目前来看,在某些领域已取得了一定的进步。具体而言,在性能上来说,在使用深度学习的方法实现解码时相比传统方法取得了显著的进步。然而,在实际应用中仍面临维度爆炸导致的问题。

e) 在信号处理领域中涉及调制技术和波形设计。
在现代通信系统中, AI神经网络通常被用来代替传统的解码模块。
此外, 在星座图的优化设计方面也有应用。
同时, 在类似正交频分复用(Orthogonal Frequency Division Multiplexing, OFDM)技术和低功率均值传输(Low Power Mean Transmission, LPT)的设计中也存在其应用。

f)具体实现信源与信道联合编码的技术方案。
f)可采用深度神经网络进行编解码替代。
f)构建端到端的联合编码架构。
f)基于无线编解码器结合自编码器算法进行无监督优化的特点。
f)通过神经网络实现信源压缩与信道编码的协同优化。
从而使得通信系统实现了整体最优性能的提升。

g)多用户接入技术的应用领域。基于各类信号检测算法的特点构建神经网络系统,旨在实现智能化的多用户检测(包括智能MIMO技术和干扰分离),有效降低计算开销,在提升系统性能的同时有效降低计算开销。

借助人工智能技术的不同类型的波束管理技术主要采用空域和时域两种方式。通过基于波束测量结果的训练模型确定最优的波束索引或计算出相应的质量信息。

(i)定位技术的应用方面涉及以下关键步骤:首先通过神经网络模型展现其非线性的处理能力和高效的特征识别能力,在实际应用中能够基于多通道测量数据进行分析和建模。具体而言,在室内环境中不仅能够融合所有信道数据进行基站与用户间的抽象特征提取和模型训练,并通过这种多维度的数据融合方式实现更高精度的室内位置估计。

0 2

空口典型用例的AI技术方案

无线空口AI的工作流程主要包含数据采集、AI模型的选择、训练以及推理过程。分别从信道状态信息压缩反馈机制、信道状态信息预测模型、智能波束管理策略、信道估计技术以及一体化接收机五个方面详细阐述其在空口传输技术中的应用方案。

2.1 信道状态信息压缩反馈

伴随着人工智能技术的持续发展与完善,在智能终端设备与物理层设备之间建立协同关系成为当下的研究热点。其中最具代表性的创新方向之一便是基于人工智能的信道状态信息反馈机制。相较于传统的固定码本反馈机制,在性能优化方面该方法追求更高的增益提升,并显著降低了反馈过程中的通信开销。

AI技术能够突破传统CSI反馈技术面临的诸多技术瓶颈与挑战,在此基础之上实现大规模MIMO系统中高维信道状态信息处理的效率提升与复杂度优化。基于AI的CSI反馈技术原理在于将高维信道信息进行抽象建模,并通过类似于自编码器的网络架构实现端到端的 CSI 信号压缩重建过程。如图1所示,在该技术架构中采用了双模协同设计模式:从终端端 deployments来看, 该系统配置了 CSI 生成模型, 主要负责信道信息特征提取、压缩编码及反馈流程;从基站端 deployments的角度来看, 则配置了 CSI 重建模型, 负责接收并解码终端端压缩反馈的 CSI 信息,并完成后续的量化与重建工作;值得注意的是, 这两种模型必须协同运行, 才能完成完整的 CSI 压缩反馈与重建任务流程。

图片

图1 基于AI的CSI反馈流程

2.2 信道状态信息预测

在多天线技术的实际应用中,基站会根据收集到的信道状态信息来制定数据传输策略,并随后发送数据内容。为了保证数据传输效率与准确率的有效结合,所采用的数据传输策略必须与实时的数据传输信道状况保持高度一致性。在TDD(时分双工)系统中,基站能够通过分析终端发送的上行参考信号来推断当前信道的状态特性,并据此优化下行数据传输的具体策略;而对于FDD(频分双工)系统,则需要基站先向终端发送下行信道状态信息参考信号,在终端接收到该信号后进行测量并反馈回来具体的信道状态信息参数;随后根据这些反馈信息重新调整并制定下一步的数据传输策略。然而需要注意的是,在实际操作过程中存在一定的延迟现象:由于无线传播过程中接收到的变化特性(即所谓的时变性),当基站开始发送数据内容时所处的实际工作环境已经发生了变化;具体而言就是在数据传输的过程中所处的具体信道条件已经不再完全匹配之前的理论模型假设条件;因此即使是在相同的发射时刻所获取到的基础面信息也会因为传播过程中的衰减等因素而产生偏差

这一现象直接导致了一个关键问题:即使基站按照当前时刻收集到的信息制定了最优的数据传输策略;但由于传播过程中的延迟效应以及接收端动态变化的影响;当实际执行该策略去发送数据内容的时候所处的真实工作环境已经发生了显著的变化;因此这种预先设定好的策略与实际运行中的情况之间必定会出现不匹配的现象;从而降低了整体的数据传输效率以及准确率表现

信道状态信息预测能够有效缓解数据传输策略与传输过程中的信道状态失配问题。采用基于AI的信息预测技术,则是通过获取当前及历史时期的信道测量数据来推断未来数据传输时可能出现的信道状况,并根据这些预测结果优化制定相应的数据传输策略。这种动态匹配机制旨在使数据传输策略与实际运行中的信道条件保持一致,在提升通信性能方面具有显著优势。在现有AI驱动的信息预测方法中,终端设备会持续监测最新的信道测量值,并利用先进的人工智能模型来增强对未来的信道状态预测能力。通过这种方式,在确保通信质量的同时显著提升了系统的智能化水平。

2.3 智能波束管理

在典型的波束管理流程中,在一个完整的系统周期内,基站或终端会依次发送自整个码本或其子集的所有射界方向信号。这种机制旨在为数据传输与控制信道建立良好的收发配对关系。由于这些射界方向通常来自预先定义好的模拟射界码本,在这种情况下采用穷尽扫描方法以覆盖所有可能的发射接收配对组合是一种最有效的训练优化方案。然而这种方法也带来了高昂的能量消耗与计算延迟等性能代价。随着人工智能技术的发展趋势日益明显,在无线空口中的射界管理和人工智能技术结合应用能够显著提升射界增益并优化频谱利用率这已然成为未来通信系统发展的关键技术方向之一

基于人工智能技术实现的波束管理方案主要包括空域维度下的智能波束预测以及时域维度下的智能波束调度两大类。具体而言,在空域维度下进行智能预测时,该系统采用部分观测到的单个子频谱或多频谱反射系数数据作为输入特征,并通过深度学习算法生成候选子频谱中各子波束成为最佳候选的概率分布信息。随后系统将根据生成的概率结果,在候选子频谱集合中筛选出最优的一组子波束索引或评估其传输性能指标等关键参数信息。值得注意的是,在实际应用场景中,默认情况下该算法处理的数据量通常少于整个候选子频谱集合的数量,并且在特定场景下所采用的各子频谱宽度与主信号接收端带宽之间存在固定比例关系(见图2)。

图片

图2 基于全连接网络的空域波束预测示意

基于人工智能(AI)的技术域波束预测方法主要依赖于终端设备假设其运动方向为随机且恒定速度、沿直线行进这一简化的运动模式,并以历史时刻的波束测量数据作为训练人工智能模型的数据源来进行未来时刻最优波束索引或质量信息的预测计算。在该模型设计中接收的历史时刻数量通常大于1个时间单位,并且输出结果的时间窗长度既可以设置为1个时间单位也可以扩展至多个时间单位。具体而言,在连续的历史时间段内接收的波束数量与候选波束的数量及其宽度在特定应用场景下可保持一致或进行灵活设置以适应实际需求。一种典型的时间域波束预测方案如图3所示采用了长短时记忆网络(LSTM)架构进行建模和仿真计算

图片

图3 基于长短时记忆网络的时域波束预测示意

2.4 信道估计

信道估计算法在大时延扩展或高速信道环境下的表现欠佳主要是因为这类环境下信道的时间和频率色散现象较为显著导致导频位置相关性降低从而影响插值精度。相比之下基于AI神经网络的方法能够有效提升这一过程的表现具体而言该方法能够从OFDM解调后的信号中提取关键特征并结合这些特征对原始信号进行高精度重构从而显著提高信道估计与恢复的整体准确性。

2.5 一体化接收机

单个模块的空口AI智能化对传统设备的能力提升有限;通过多模块级联的方式将无线设备的收发模块统一由AI模型替代;尽管通信系统中各模块看似独立运行;但人为划分的人为操作切断了各模块之间的内在联系;基于单独模块优化的方法只能获得局部最优解;而AI技术能够识别常规方法难以捕捉到的关键关联;在更大的搜索空间中寻找全局最优解;从而带来比传统方案更大的增益;其中基于AI的一体化接收机方案是将信道估计、均衡和解调功能整合成为一个统一的整体设计方案(见图4);这种设计利用一个神经网络一次性完成传统无线网络中的三个核心功能;并且这种全息式的处理方式使得网络内部的功能实现高度融合而不容分割

图片

图4 基于AI一体化接收机的无线系统链路结构

0 3

空口AI典型用例模型及算力需求

空口AI采用了多种不同的神经网络架构作为其算法模型,在这些模型中计算复杂度与资源消耗存在显著差异。实际应用中的表现也不尽相同。本研究将深入探讨在各种应用场景下空口AI系统的计算能力和资源需求,并基于实验数据对其使用的计算能力进行评估与分析。其中所涉及的数据均为实验性收集所得,在具体实施过程中受到训练样本数量、训练迭代次数以及模型规模等多种因素的影响而呈现出多样性特征。

广泛采用的技术包括基于Transformers这一先进的深度学习架构设计出了一种新型编码器结构,在通信领域中展现出卓越的表现:该方案不仅能够显著提升特征提取与重构能力,并且在数据重建精度方面也实现了质的飞跃;然而这也意味着相较于其他主流算法而言需要付出一定代价:即较高的计算复杂度需求。具体而言,在参数规模方面该方法可支持从约0.1百万到2千万个可调参数之间的选择。

该系统采用端侧部署方案,将信号质量感知与定位任务放置于终端端侧。信号质量数据源自于本地生成,而定位数据则来源于端侧采集设备进行精确获取。信号质量数据将作为生成CSI预测模型输入的基础,在测量特定信道时需进行预处理步骤。该信号质量类型可选包括原始信号矩阵、其特征向量或是反馈的状态信息等基础形式。对于预测结果,可经过后续优化处理以提升准确性水平。其中,主流的人工智能架构主要包括全连接层网络(CNN)、循环神经元网络(RNN)以及全连接前馈网络(FCN)等多种形式选择。该系统的信号质量感知模块参数规模控制在最低1M至最高20M之间

空域波束预测采用的模型架构基于全连接网络(FCN),其参数数量通常少于1 million;在推理阶段每秒浮点运算次数(FLOPs)一般均低于该数值或介于几十 million范围内。时域波束预测采用了长短时记忆网络(LSTM)作为其核心架构,在推理阶段每秒浮点运算次数(FLOPs)一般低于几 million。

信道估计的主要采用的是单层全连接神经网络架构。基于AI的方法显著优于传统的信道估计方案,在性能上具有明显的优势。该模型具有约2百万级别的参数规模,在推理过程中所需的计算复杂度约为数千万次运算级别。

该主体模型基于AI技术构建而成,并采用多层卷积神经网络架构。该模型将OFDM解调后的数据作为输入信号,并对每个资源位置比特位对应的可能性进行概率估计。其输出结果对应于每个资源位置比特位的概率值。该网络参数规模约为0.05百万个。单次前向传播所需的计算复杂度约为千分之几兆FLOPS水平。

0 4

空口AI典型用例方案效果评估

业界已有研究表明空口技术具有可行性,并主要采用基于物理层的单模块优化设计以及基于数据驱动的多模块联合端到端设计的方法。通过实验结果分析发现,在不同应用场景下采用AI算法所带来的性能提升效果存在显著差异。其中,在信道条件较差的情况下采用基于AI算法进行物理层优化能够获得更大的性能提升空间;而采用多模块协同优化策略(特别是双侧部署模式)相比传统方案能带来显著性能提升。

为了对比基于AI的CSI反馈机制与传统的码本反馈机制在性能上的差异性, 3GPP Release-18标准建议将预编码矩阵设定为AI模型的关键输入参数,并通过平方余弦相似度(SGCS)以及系统吞吐量等指标来进行具体评估。相较于Release-16的标准, 基于AI实现的CSI反馈机制在提升了平均用户吞吐量的同时还能有效减少上行方向上的数据传输负担, 其吞吐量提升幅度最高可能达到约10%至15%, 但偶尔也可能出现负面效果

3GPP标准组织已在 Release-18 阶段实现了基于人工智能技术的信道状态信息预测方案的性能提升及其对标准影响的初步分析工作。经评估,在不同信道环境下运行所得平均吞吐量提升中位数落在 2% 至 20% 的区间内。

基于3GPP的研究表明,在对比传统基于穷尽扫描机制进行空域波束管理的方法时

通过多厂家的原型设备测试可以看出:当导频开销保持恒定时,在相同的条件下采用基于AI的信道估计方法较传统方法能获得显著提升;在同一性能水平下,相比于传统算法,在同样条件下AI技术所需的导频开销明显减少;基于人工智能的方法在信噪比较低的情况下展现出更大的性能优势

0 5

结束语

空口AI技术已获得广泛关注,并有多家机构完成了部分空口AI应用的原型样机测试与评估工作。然而,在当前阶段该技术仍面临诸多挑战:其模型鲁棒性和泛化性能有待提升;不同场景下需要配备大量专用模型;模型复杂度较高;跨设备商之间的协同开发也存在较大障碍;这些问题均需产业界共同应对。此外,在现有基站设备资源有限的情况下,在基站端部署空口AI推理系统是可行方案;而当前阶段仅由专门服务器或网管服务器完成相关模型训练工作;未来随着技术进步,在基站端也将部署微调功能;这将进一步提高基站端计算能力的需求;因此有必要深入研究该技术的应用方案及经济性考量,并提出相应的应用推广建议

全部评论 (0)

还没有任何评论哟~