振荡器输出通常具有相位噪声,导致输出功率谱密度(PSD)分散在DIRAC DELTA功能周围。在本文中,考虑了AWGN信道,其中伴随相位噪声的发送信号被添加到信道高斯噪声并在接收器处接收。诸如最小均方(LMS)和平均MSE标准的传统信道估计算法不适用于该信道估计。我们(i)通过信息理论学习(ITL)标准,即最大正控性标准(MCC)分析该相位噪声信道估计,导致信道估计器稳定状态行为中的稳健性;(ii)通过将MSE和MCC组合为新的混合LMS算法来提高收敛速度。
translated by 谷歌翻译
在本文中,我们提出了一种一般稳健的子带自适应滤波(GR-SAF)方案,以防止冲动噪声,通过在随机步行模型下以各个重量不确定性最小化均方根偏差。具体而言,通过选择不同的缩放因子,例如在GR-SAF方案中从M-估计和最大correntropy robust标准中选择,我们可以轻松获得不同的GR-SAF算法。重要的是,所提出的GR-SAF算法可以简化为可变的正则化鲁棒归一化的SAF算法,从而具有快速的收敛速率和低稳态误差。在系统识别的背景下,用冲动噪声和回声取消进行双词的模拟已证实,所提出的GR-SAF算法的表现优于其对应物。
translated by 谷歌翻译
近年来,守则已经安全地应用于强大的自适应过滤,以消除脉冲噪声或异常值的不利影响。正文通常被定义为两个随机变量之间的高斯内核的期望。当两个随机变量之间的误差对称地分布零点时,此定义是合理的。对于不对称错误分布的情况,对称高斯内核不合适,并且无法适应错误分布。为了解决这个问题,在这篇简短的情况下,我们提出了一种新的正文变异,名称不对称的正文,它使用非对称高斯模型作为内核功能。此外,开发了一种基于非对称控制的鲁棒自适应滤波算法,分析了其稳态收敛性能。提供了模拟以确认所提出的算法的理论结果和良好性能。
translated by 谷歌翻译
自适应滤波器处于许多信号处理应用的核心,从声噪声繁殖到回声消除,阵列波束形成,信道均衡,以更新的传感器网络应用在监控,目标本地化和跟踪中。沿着该方向的趋势方法是重复到网络内分布式处理,其中各个节点实现适应规则并将它们的估计扩散到网络。当关于过滤方案的先验知识有限或不精确时,选择最适当的过滤器结构并调整其参数变得有挑战性的任务,并且错误的选择可能导致性能不足。为了解决这个困难,一种有用的方法是依赖自适应结构的组合。自适应滤波器的组合在某种程度上利用相同的鸿沟和征服机器学习界(例如,袋装或升级)成功利用的原则。特别地,在不同的视角下,在计算学习领域中研究了组合若干学习算法的输出(专家的混合):而不是研究混合物的预期性能,衍生出适用于各个序列的确定性范围因此,反映了最糟糕的情况。这些界限需要与通常在自适应滤波中使用的那些不同的假设,这是该概述文章的重点。我们审查了这些组合计划背后的关键思想和原则,重点是设计规则。我们还通过各种示例说明了它们的性能。
translated by 谷歌翻译
最近,基于深层神经网络(DNN)的物理层通信技术引起了极大的兴趣。尽管模拟实验已经验证了它们增强通信系统和出色性能的潜力,但对理论分析的关注很少。具体而言,物理层中的大多数研究都倾向于专注于DNN模型在无线通信问题上的应用,但理论上不了解DNN在通信系统中的工作方式。在本文中,我们旨在定量分析为什么DNN可以在物理层中与传统技术相比,并在计算复杂性方面提高其成本。为了实现这一目标,我们首先分析基于DNN的发射器的编码性能,并将其与传统发射器进行比较。然后,我们理论上分析了基于DNN的估计器的性能,并将其与传统估计器进行比较。第三,我们调查并验证在信息理论概念下基于DNN的通信系统中如何播放信息。我们的分析开发了一种简洁的方式,可以在物理层通信中打开DNN的“黑匣子”,可用于支持基于DNN的智能通信技术的设计,并有助于提供可解释的性能评估。
translated by 谷歌翻译
本文研究了在脉冲干扰和拜占庭式攻击的情况下,对聚类的多任务网络进行了扩散适应。我们根据Geman-McClure估计器使用的成本函数开发了强大的弹性扩散算法(RDLMG)算法,这可以降低对大异常值的敏感性,并使算法在冲动性的干扰下使算法可靠。此外,平均子序列减少的方法,其中每个节点丢弃了从其邻居那里获得的成本贡献的极端价值信息,可以使网络对拜占庭式攻击进行弹性。在这方面,提出的RDLMG算法可确保所有正常节点通过节点之间的合作融合到其理想状态。 RDLMG算法的统计分析也是根据平均和平均形式性能进行的。数值结果评估了用于多目标定位和多任务频谱传感的应用中提出的RDLMG算法。
translated by 谷歌翻译
本文提出了一种基于内核的自适应过滤器,该过滤器适用于以全双工(FD)模式运行的收发器中的数字域自身解雇取消(SIC)。在FD中,同时传输和接收信号的好处是以强大的自我干扰(SI)的价格出现。在这项工作中,我们主要有兴趣使用自适应滤波器(即自适应滤波器)在函数的再现核Hilbert Space(RKHS)中抑制SI。将投影概念作为功能强大的工具,APSM用于建模并因此删除SI。提供了低复杂性和快速跟踪算法,利用了平行投影以及RKHS中的内核技巧。在实际测量数据上评估所提出的方法的性能。与已知的流行基准相比,该方法说明了所提出的自适应滤波器的良好性能。他们证明,基于内核的算法达到了有利的数字SIC水平,同时借助了使用的自适应滤波方法,在丰富和非线性功能空间内实现基于平行的计算实现。
translated by 谷歌翻译
我们示出了一种新的设计标准,即由加权标准规范化的子带错误的最小二乘范围,可用于概括比例型归一化子带自适应滤波(PTNSAF)框架。新标准直接惩罚子带错误,并包括使用阻尼正则牛顿的方法最小化的稀疏性惩罚术语。通过计算机模拟研究了所提出的广义PTNSAF(GPTNSAF)的影响。具体而言,我们研究了使用不同数量的子带和各种稀疏性惩罚术语对准稀疏,稀疏和分散系统的影响。结果表明,当目标系统是准稀疏或分散的时,增加子带数增加的损奋较大的效果。另一方面,对于稀疏的目标系统,促进稀疏性变得更加重要。更重要的是,这两个方面为GPTNSAF提供了互补和添加剂的益处,用于加速收敛。
translated by 谷歌翻译
Channel estimation is a critical task in multiple-input multiple-output (MIMO) digital communications that substantially effects end-to-end system performance. In this work, we introduce a novel approach for channel estimation using deep score-based generative models. A model is trained to estimate the gradient of the logarithm of a distribution and is used to iteratively refine estimates given measurements of a signal. We introduce a framework for training score-based generative models for wireless MIMO channels and performing channel estimation based on posterior sampling at test time. We derive theoretical robustness guarantees for channel estimation with posterior sampling in single-input single-output scenarios, and experimentally verify performance in the MIMO setting. Our results in simulated channels show competitive in-distribution performance, and robust out-of-distribution performance, with gains of up to $5$ dB in end-to-end coded communication performance compared to supervised deep learning methods. Simulations on the number of pilots show that high fidelity channel estimation with $25$% pilot density is possible for MIMO channel sizes of up to $64 \times 256$. Complexity analysis reveals that model size can efficiently trade performance for estimation latency, and that the proposed approach is competitive with compressed sensing in terms of floating-point operation (FLOP) count.
translated by 谷歌翻译
由于自动驾驶,物联网和流媒体服务的快速发展,现代通信系统必须应对各种渠道条件以及用户和设备的稳步增加。这以及仍在上升的带宽需求只能通过智能网络自动化来满足,这需要高度灵活和盲目的收发器算法。为了应对这些挑战,我们提出了一种新颖的自适应均衡计划,该计划通过训练用对抗性网络训练均衡器来利用深度学习的繁荣进步。该学习仅基于发射信号的统计数据,因此它对通道模型的实际发送符号和不可知论是盲目的。所提出的方法独立于均衡器拓扑,并实现了强大的基于神经网络的均衡器的应用。在这项工作中,我们证明了这一概念在对线性和非线性传输通道的模拟中,并证明了拟议的盲目学习方案的能力,可以接近非盲均衡器的性能。此外,我们提供了理论观点,并强调了方法的挑战。
translated by 谷歌翻译
提出了一种称为误差损失网络(ELN)的新型模型,以构建监督学习的误差损失函数。 ELN的结构类似于径向基函数(RBF)神经网络,但其输入是误差样本,输出是与该误差样本相对应的损耗。这意味着ELN的非线性输入输出映射器会创建误差损失函数。拟议的ELN为大量错误损失函数提供了统一模型,其中包括一些信息理论学习(ITL)损失函数作为特殊情况。 ELN的激活函数,权重参数和网络大小可以从误差样本中进行预先确定或学到。在此基础上,我们提出了一个新的机器学习范式,其中学习过程分为两个阶段:首先,使用ELN学习损失函数;其次,使用学习的损失功能继续执行学习。提出了实验结果,以证明新方法的理想性能。
translated by 谷歌翻译
由于其快速和低功率配置,可重新配置的智能表面(RISS)最近被视为未来无线网络的节能解决方案,这在实现大规模连通性和低延迟通信方面具有增加的潜力。基于RIS的系统中的准确且低空的通道估计是通常的RIS单元元素及其独特的硬件约束,这是最关键的挑战之一。在本文中,我们专注于RIS授权的多用户多用户多输入单输出(MISO)上行链路通信系统的上行链路,并根据并行因子分解提出了一个通道估计框架,以展开所得的级联通道模型。我们为基站和RIS之间的渠道以及RIS与用户之间的渠道提供了两种迭代估计算法。一个基于交替的最小二乘(ALS),而另一个使用向量近似消息传递到迭代的迭代中,从估计的向量重建了两个未知的通道。为了从理论上评估基于ALS的算法的性能,我们得出了其估计值CRAM \'ER-RAO BOND(CRB)。我们还通过估计的通道和基本站的不同预码方案讨论了可实现的总和率计算。我们的广泛仿真结果表明,我们的算法表现优于基准方案,并且ALS技术可实现CRB。还证明,使用估计通道的总和率总是在各种设置下达到完美通道的总和,从而验证了提出的估计算法的有效性和鲁棒性。
translated by 谷歌翻译
直接到 - 卫星(DTS)通信最近已获得支持全球连接的物联网(IoT)网络的重要性。但是,地球周围密集部署的卫星网络相对较长的距离会导致高路径损失。此外,由于必须部分在物联网设备中进行诸如光束成型,跟踪和均衡之类的高复杂性操作,因此硬件复杂性和对物联网设备的高容量电池的需求都会增加。可重新配置的智能表面(RISS)具有增加能源效率并在传输环境而不是物联网设备上执行复杂的信号处理的潜力。但是,RIS需要级联通道的信息,以更改事件信号的阶段。这项研究将试点信号评估为图形,并将此信息纳入图表网络(GATS),以通过试点信号来跟踪相位关系。提出的基于GAT的通道估计方法研究了DTS IoT网络的性能,以解决不同的RIS配置,以解决具有挑战性的通道估计问题。结果表明,与常规深度学习方法相比,在变化条件下,拟议的GAT均表现出更高的性能,并且在变化的条件下具有更高的鲁棒性,并且计算复杂性较低。此外,根据提议的方法,在通道估计下具有离散和不均匀相移的RIS设计研究了位错误率性能。这项研究的发现之一是,必须在RIS设计期间考虑操作环境的渠道模型和通道估计方法的性能,以尽可能利用性能改进。
translated by 谷歌翻译
多用户多输入多输出(MU-MIMO)系统可用于满足5G和超越网络的高吞吐量要求。基站在上行链路MU-MIMO系统中为许多用户提供服务,从而导致多用户干扰(MUI)。设计用于处理强大MUI的高性能探测器具有挑战性。本文分析了最先进消息传递(MP)检测器中使用高MUI的后验分布近似引起的性能降解。我们开发一个基于图神经网络的框架来微调MP检测器的腔分布,从而改善MP检测器中的后验分布近似。然后,我们提出了两个基于神经网络的新型检测器,它们依赖于期望传播(EP)和贝叶斯平行干扰取消(BPIC),分别称为GEPNET和GPICNET探测器。 GEPNET检测器可最大化检测性能,而GPICNET检测器平衡了性能和复杂性。我们提供了置换量比属性的证明,即使在具有动态变化的用户数量的系统中,也只能对检测器进行一次培训。仿真结果表明,所提出的GEPNET检测器性能在各种配置中接近最大似然性能,而GPICNET检测器将BPIC检测器的多路复用增益加倍。
translated by 谷歌翻译
分布式学习的主要重点之一是沟通效率,因为每一轮训练的模型聚集可能包括数百万到数十亿个参数。已经提出了几种模型压缩方法,例如梯度量化和稀疏方法,以提高模型聚合的通信效率。但是,对于给定梯度估计器的给定扭曲的信息理论的最低通信成本仍然未知。在本文中,我们研究了从率延伸的角度研究分布式学习中模型聚集的基本限制。通过将模型聚合作为矢量高斯首席执行官问题,我们得出了模型聚合问题的速率区域和总成绩 - 距离函数,这揭示了在特定梯度失真上限处的最小通信速率。我们还根据现实世界数据集的梯度统计数据,分析了每次迭代和总通信成本的通信成本和总通信成本。发现通过利用工人节点之间的相关性来获得沟通增益,对于符号来说是显着的,并且梯度估计器的高扭曲可以实现梯度压缩中的较低总通信成本。
translated by 谷歌翻译
本文考虑了多个Antenna基站和用户设备对上行链路性能的一般硬件障碍的影响。首先,当使用有限大小的信号星座时,有效通道是分析得出的失真感知接收器。接下来,设计和训练了深层喂食神经网络,以估计有效的渠道。将其性能与最先进的失真感和不知道的贝叶斯线性最小均时误差(LMMSE)估计器进行了比较。提出的深度学习方法通过利用损伤特性来提高估计质量,而LMMSE方法将失真视为噪声。
translated by 谷歌翻译
Erroneous correspondences between samples and their respective channel or target commonly arise in several real-world applications. For instance, whole-brain calcium imaging of freely moving organisms, multiple target tracking or multi-person contactless vital sign monitoring may be severely affected by mismatched sample-channel assignments. To systematically address this fundamental problem, we pose it as a signal reconstruction problem where we have lost correspondences between the samples and their respective channels. We show that under the assumption that the signals of interest admit a sparse representation over an overcomplete dictionary, unique signal recovery is possible. Our derivations reveal that the problem is equivalent to a structured unlabeled sensing problem without precise knowledge of the sensing matrix. Unfortunately, existing methods are neither robust to errors in the regressors nor do they exploit the structure of the problem. Therefore, we propose a novel robust two-step approach for the reconstruction of shuffled sparse signals. The performance and robustness of the proposed approach is illustrated in an application of whole-brain calcium imaging in computational neuroscience. The proposed framework can be generalized to sparse signal representations other than the ones considered in this work to be applied in a variety of real-world problems with imprecise measurement or channel assignment.
translated by 谷歌翻译
Two of the main principles underlying the life cycle of an artificial intelligence (AI) module in communication networks are adaptation and monitoring. Adaptation refers to the need to adjust the operation of an AI module depending on the current conditions; while monitoring requires measures of the reliability of an AI module's decisions. Classical frequentist learning methods for the design of AI modules fall short on both counts of adaptation and monitoring, catering to one-off training and providing overconfident decisions. This paper proposes a solution to address both challenges by integrating meta-learning with Bayesian learning. As a specific use case, the problems of demodulation and equalization over a fading channel based on the availability of few pilots are studied. Meta-learning processes pilot information from multiple frames in order to extract useful shared properties of effective demodulators across frames. The resulting trained demodulators are demonstrated, via experiments, to offer better calibrated soft decisions, at the computational cost of running an ensemble of networks at run time. The capacity to quantify uncertainty in the model parameter space is further leveraged by extending Bayesian meta-learning to an active setting. In it, the designer can select in a sequential fashion channel conditions under which to generate data for meta-learning from a channel simulator. Bayesian active meta-learning is seen in experiments to significantly reduce the number of frames required to obtain efficient adaptation procedure for new frames.
translated by 谷歌翻译
给定有限数量的训练数据样本的分类的基本任务被考虑了具有已知参数统计模型的物理系统。基于独立的学习和统计模型的分类器面临使用小型训练集实现分类任务的主要挑战。具体地,单独依赖基于物理的统计模型的分类器通常遭受它们无法适当地调整底层的不可观察的参数,这导致系统行为的不匹配表示。另一方面,基于学习的分类器通常依赖于来自底层物理过程的大量培训数据,这在最实际的情况下可能不可行。本文提出了一种混合分类方法 - 被称为亚牙线的菌丝 - 利用基于物理的统计模型和基于学习的分类器。所提出的解决方案基于猜想,即通过融合它们各自的优势,刺鼠线将减轻与基于学习和统计模型的分类器的各个方法相关的挑战。所提出的混合方法首先使用可用(次优)统计估计程序来估计不可观察的模型参数,随后使用基于物理的统计模型来生成合成数据。然后,培训数据样本与基于学习的分类器中的合成数据结合到基于神经网络的域 - 对抗训练。具体地,为了解决不匹配问题,分类器将从训练数据和合成数据的映射学习到公共特征空间。同时,培训分类器以在该空间内找到判别特征,以满足分类任务。
translated by 谷歌翻译
最近在无线通信领域的许多任务中考虑了机器学习算法。以前,我们已经提出了使用深度卷积神经网络(CNN)进行接收器处理的使用,并证明它可以提供可观的性能提高。在这项研究中,我们专注于发射器的机器学习算法。特别是,我们考虑进行波束形成并提出一个CNN,该CNN对于给定上行链路通道估计值作为输入,输出下链路通道信息用于波束成形。考虑到基于UE接收器性能的损失函数的上行链路传输和下行链路传输,CNN以有监督的方式进行培训。神经网络的主要任务是预测上行链路和下行链路插槽之间的通道演变,但它也可以学会处理整个链中的效率低下和错误,包括实际的光束成型阶段。提供的数值实验证明了波束形成性能的改善。
translated by 谷歌翻译