在多输入多输出(MIMO)系统中使用深度自动码器(DAE)进行端到端通信,是一种具有重要潜力的新概念。在误码率(BER)方面,已示出DAE-ADED MIMO以占地识别的奇异值分解(SVD)为基础的预编码MIMO。本文提出将信道矩阵的左右奇异矢量嵌入到DAE编码器和解码器中,以进一步提高MIMO空间复用的性能。 SVD嵌入式DAE主要优于BER的理论线性预编码。这是显着的,因为它表明所提出的DAES通过将通信系统视为单个端到端优化块来超出当前系统设计的极限。基于仿真结果,在SNR = 10dB,所提出的SVD嵌入式设计可以实现近10美元,并将BER减少至少10次,而没有SVD,相比增长了18倍的增长率最高18倍具有理论线性预编码。我们将这一点归因于所提出的DAE可以将输入和输出与具有有限字母输入的自适应调制结构匹配。我们还观察到添加到DAE的剩余连接进一步提高了性能。
translated by 谷歌翻译
Effective and adaptive interference management is required in next generation wireless communication systems. To address this challenge, Rate-Splitting Multiple Access (RSMA), relying on multi-antenna rate-splitting (RS) at the transmitter and successive interference cancellation (SIC) at the receivers, has been intensively studied in recent years, albeit mostly under the assumption of perfect Channel State Information at the Receiver (CSIR) and ideal capacity-achieving modulation and coding schemes. To assess its practical performance, benefits, and limits under more realistic conditions, this work proposes a novel design for a practical RSMA receiver based on model-based deep learning (MBDL) methods, which aims to unite the simple structure of the conventional SIC receiver and the robustness and model agnosticism of deep learning techniques. The MBDL receiver is evaluated in terms of uncoded Symbol Error Rate (SER), throughput performance through Link-Level Simulations (LLS), and average training overhead. Also, a comparison with the SIC receiver, with perfect and imperfect CSIR, is given. Results reveal that the MBDL receiver outperforms by a significant margin the SIC receiver with imperfect CSIR, due to its ability to generate on demand non-linear symbol detection boundaries in a pure data-driven manner.
translated by 谷歌翻译
最近的作品表明,现代机器学习技术可以为长期存在的联合源通道编码(JSCC)问题提供另一种方法。非常有希望的初始结果,优于使用单独的源代码和通道代码的流行数字方案,已被证明用于使用深神经网络(DNNS)的无线图像和视频传输。但是,此类方案的端到端培训需要可区分的通道输入表示。因此,先前的工作假设可以通过通道传输任何复杂值。这可以防止在硬件或协议只能接收数字星座规定的某些频道输入集的情况下应用这些代码。本文中,我们建议使用有限通道输入字母的端到端优化的JSCC解决方案DeepJSCC-Q。我们表明,DEEPJSCC-Q可以实现与允许任何复杂的有价值通道输入的先前作品相似的性能,尤其是在可用的高调制订单时,并且在调制顺序增加的情况下,性能渐近接近无约束通道输入的情况。重要的是,DEEPJSCC-Q保留了不可预测的渠道条件下图像质量的优雅降级,这是在频道迅速变化的移动系统中部署的理想属性。
translated by 谷歌翻译
基于深度学习的渠道代码设计最近引起了人们的兴趣,可以替代传统的编码算法,尤其是对于现有代码不提供有效解决方案的渠道。通过反馈渠道进行的沟通就是一个这样的问题,最近通过采用各种深度学习体系结构来获得有希望的结果。在本文中,我们为反馈渠道介绍了一种新颖的学习辅助代码设计,称为广义块注意反馈(GBAF)代码,i)使用模块化体系结构,可以使用不同的神经网络体系结构实现;ii)与现有设计相比,错误的可能性提高了误顺序;iii)可以以所需的代码速率传输。
translated by 谷歌翻译
Ultra-reliable short-packet communication is a major challenge in future wireless networks with critical applications. To achieve ultra-reliable communications beyond 99.999%, this paper envisions a new interaction-based communication paradigm that exploits feedback from the receiver. We present AttentionCode, a new class of feedback codes leveraging deep learning (DL) technologies. The underpinnings of AttentionCode are three architectural innovations: AttentionNet, input restructuring, and adaptation to fading channels, accompanied by several training methods, including large-batch training, distributed learning, look-ahead optimizer, training-test signal-to-noise ratio (SNR) mismatch, and curriculum learning. The training methods can potentially be generalized to other wireless communication applications with machine learning. Numerical experiments verify that AttentionCode establishes a new state of the art among all DL-based feedback codes in both additive white Gaussian noise (AWGN) channels and fading channels. In AWGN channels with noiseless feedback, for example, AttentionCode achieves a block error rate (BLER) of $10^{-7}$ when the forward channel SNR is 0 dB for a block size of 50 bits, demonstrating the potential of AttentionCode to provide ultra-reliable short-packet communications.
translated by 谷歌翻译
最近的作品表明,可以通过使用机器学习技术来学习图像的无线传输的任务。已经通过训练了自动化器,非常有前沿图像质量,优于利用源和信道编码分离的流行数字方案,以具有中间的不可培训的沟道层,优于利用源和信道编码分离。然而,这些方法假设可以通过信道传输任何复数,这可以防止硬件或协议只能承认某些信道输入的场景中的算法,例如使用数字星座的使用。这里,我们提出了DeepJSCC-Q,用于无线图像传输的端到端优化的联合源信道编码方案,其能够用固定信道输入字母操作。我们表明DeepJSCC-Q可以对使用连续值通道输入的模型来实现类似的性能。重要的是,在信道条件恶化的情况下,保留在现有工作中观察到的图像质量的正常劣化,使DeepJSCC-Q在实际系统中部署更具吸引力。
translated by 谷歌翻译
基于深度学习(DL)的联合源通道编码(DEEPJSCC)的最新进展导致了语义通信的新范式。基于DEEPJSCC的语义通信的两个显着特征是直接从源信号中对语义感知功能的开发以及这些功能的离散时间模拟传输(DTAT)。与传统的数字通信相比,与DEEPJSCC的语义通信在接收器上提供了出色的重建性能,并具有较高的频道质量降解,但在传输信号中也表现出较大的峰值功率比(PAPR)。一个空旷的问题是,DeepJSCC的收益是否来自高PAPR连续振幅信号带来的额外自由。在本文中,我们通过在图像传输的应用中探索三种PAPR还原技术来解决这个问题。我们确认,基于DEEPJSCC的语义通信的出色图像重建性能可以保留,而传输的PAPR被抑制至可接受的水平。该观察是在实用语义通信系统中实施DEEPJSCC的重要一步。
translated by 谷歌翻译
本文提出了一种新的方法,用于可重新配置智能表面(RIS)和发射器 - 接收器对的联合设计,其作为一组深神经网络(DNN)培训,以优化端到端通信性能接收者。 RIS是一种软件定义的单位单元阵列,其可以根据散射和反射轮廓来控制,以将来自发射机的传入信号集中到接收器。 RIS的好处是通过克服视线(LOS)链路的物理障碍来提高无线通信的覆盖率和光谱效率。 RIS波束码字(从预定义的码本)的选择过程被配制为DNN,而发射器 - 接收器对的操作被建模为两个DNN,一个用于编码器(在发射器)和另一个一个用于AutoEncoder的解码器(在接收器处),通过考虑包括由in之间引起的频道效应。底层DNN共同训练,以最小化接收器处的符号误差率。数值结果表明,所提出的设计在各种基线方案中实现了误差性能的主要增益,其中使用了没有RIS或者将RIS光束的选择与发射器 - 接收器对的设计分离。
translated by 谷歌翻译
最近在无线通信领域的许多任务中考虑了机器学习算法。以前,我们已经提出了使用深度卷积神经网络(CNN)进行接收器处理的使用,并证明它可以提供可观的性能提高。在这项研究中,我们专注于发射器的机器学习算法。特别是,我们考虑进行波束形成并提出一个CNN,该CNN对于给定上行链路通道估计值作为输入,输出下链路通道信息用于波束成形。考虑到基于UE接收器性能的损失函数的上行链路传输和下行链路传输,CNN以有监督的方式进行培训。神经网络的主要任务是预测上行链路和下行链路插槽之间的通道演变,但它也可以学会处理整个链中的效率低下和错误,包括实际的光束成型阶段。提供的数值实验证明了波束形成性能的改善。
translated by 谷歌翻译
我们呈现深度,第一端到端联合源通道编码(JSCC)视频传输方案,其利用深神经网络(DNN)的力量直接将视频信号映射到信道符号,组合视频压缩,信道编码并且调制步骤进入单个神经变换。我们的DNN解码器预测无失真反馈的残差,这通过占闭塞/脱离和相机运动来提高视频质量。我们同时培训不同的带宽分配网络,以允许变量带宽传输。然后,我们使用强化学习(RL)训练带宽分配网络,该钢筋学习(RL)优化视频帧之间的有限可用信道带宽的分配,以最大限度地提高整体视觉质量。我们的研究结果表明,深度可以克服悬崖效应,这在传统的分离的数字通信方案中普遍存在,并在估计和实际信道质量之间取得不匹配来实现优雅的降级。 DeepWive优于H.264视频压缩,然后在所有信道条件下的低密度奇偶校验(LDPC)代码在多尺度结构相似性指数(MS-SSIM)方面平均达到0.0462,同时跳动H.265 + LDPC平均高达0.0058。我们还说明了通过显示我们的最佳带宽分配策略优于NA \“IVE统一分配来优化JSCC视频传输中的带宽分配的重要性。我们相信这是实现端到端潜力的重要一步优化的JSCC无线视频传输系统优于当前的基于分离的设计。
translated by 谷歌翻译
最近,基于深层神经网络(DNN)的物理层通信技术引起了极大的兴趣。尽管模拟实验已经验证了它们增强通信系统和出色性能的潜力,但对理论分析的关注很少。具体而言,物理层中的大多数研究都倾向于专注于DNN模型在无线通信问题上的应用,但理论上不了解DNN在通信系统中的工作方式。在本文中,我们旨在定量分析为什么DNN可以在物理层中与传统技术相比,并在计算复杂性方面提高其成本。为了实现这一目标,我们首先分析基于DNN的发射器的编码性能,并将其与传统发射器进行比较。然后,我们理论上分析了基于DNN的估计器的性能,并将其与传统估计器进行比较。第三,我们调查并验证在信息理论概念下基于DNN的通信系统中如何播放信息。我们的分析开发了一种简洁的方式,可以在物理层通信中打开DNN的“黑匣子”,可用于支持基于DNN的智能通信技术的设计,并有助于提供可解释的性能评估。
translated by 谷歌翻译
随着深度学习(DL)的发展,自然语言处理(NLP)使我们可以分析和理解大量语言文本。因此,在NLP的帮助下,我们可以在联合语义源和噪声频道上进行联合语义源和信道进行语义通信。然而,实现这一目标的现有方法是使用NLP的固定变压器,同时忽略每个句子中包含的语义信息的差异。为了解决这个问题,我们提出了一种基于通用变压器的新语义通信系统。与传统变压器相比,在通用变压器中引入了自适应循环机制。通过引入循环机制,新的语义通信系统可以更灵活地传输具有不同语义信息的句子,并在各种信道条件下实现更好的端到端性能。
translated by 谷歌翻译
在本文中,我们介绍了一种基于结构的神经网络体系结构,即RC结构,用于MIMO-OFDM符号检测。 RC结构通过储层计算(RC)利用MIMO-OFDM信号的时间结构。二进制分类器利用系统中的重复星座结构来执行多级检测。 RC的合并允许以纯粹的在线方式学习RC结构,并在每个OFDM子帧中具有极为有限的飞行员符号。二进制分类器可以有效利用宝贵的在线培训符号,并可以轻松地扩展到高级调制,而无需大幅度提高复杂性。实验表明,在BIT错误率(BER)方面,引入的RC结构优于常规模型的符号检测方法和基于最新学习的策略。当采用等级和链接适应时,RC结构比现有方法的优势变得更加重要。引入的RC结构阐明了将通信领域知识和基于学习的接收处理结合在一起,可用于5G/5G高级及以后。
translated by 谷歌翻译
近年来在自动编码器(AE)框架中自动化频道编码器和解码器的设计越来越感兴趣,以便在噪声通道上可靠地传输数据。在本文中,我们为此目的展示了设计AES的新框架。特别地,我们介绍了AE框架,即Listae,其中解码器网络输出解码的消息字候选列表。假设在解码器的输出中可在解码器的输出处获得Genie,并且提出了特定损耗功能,以优化Genie-Aided(GA)-Listae的性能。 Listae是普通AE框架,可以与任何网络架构一起使用。我们提出了一种特定的端到端网络架构,其在一系列组件代码上解码接收的单词,其速率降低。基于所提出的架构的Listae称为增量冗余列表(IR-Listae),在GA解码下的低块误差速率下通过1 dB提高了最先进的AE性能。然后,我们使用循环冗余检查(CRC)代码来替换解码器的Genie,与GA-Listae相比,使CRC-Aided(CA)-Listae具有可忽略的性能损失。由于将CRC附加到消息字,CA-Listae以略微降低的价格显示有意义的编码增益。
translated by 谷歌翻译
这是两部分纸的第二部分,该论文着重于具有非线性接收器的多用户MIMO(MU-MIMO)系统的链接适应(LA)和物理层(PHY)抽象。第一部分提出了一个新的指标,称为检测器,称为比率解码率(BMDR),是非线性接收器的等效量等效的信号与交换后噪声比率(SINR)。由于该BMDR没有封闭形式的表达式,因此有效地提出了基于机器学习的方法来估计其。在这一部分中,第一部分中开发的概念用于开发LA的新算法,可用检测器列表中的动态检测器选择以及具有任意接收器的MU-MIMO系统中的PHY抽象。提出了证实所提出算法的功效的广泛仿真结果。
translated by 谷歌翻译
In split machine learning (ML), different partitions of a neural network (NN) are executed by different computing nodes, requiring a large amount of communication cost. To ease communication burden, over-the-air computation (OAC) can efficiently implement all or part of the computation at the same time of communication. Based on the proposed system, the system implementation over wireless network is introduced and we provide the problem formulation. In particular, we show that the inter-layer connection in a NN of any size can be mathematically decomposed into a set of linear precoding and combining transformations over MIMO channels. Therefore, the precoding matrix at the transmitter and the combining matrix at the receiver of each MIMO link, as well as the channel matrix itself, can jointly serve as a fully connected layer of the NN. The generalization of the proposed scheme to the conventional NNs is also introduced. Finally, we extend the proposed scheme to the widely used convolutional neural networks and demonstrate its effectiveness under both the static and quasi-static memory channel conditions with comprehensive simulations. In such a split ML system, the precoding and combining matrices are regarded as trainable parameters, while MIMO channel matrix is regarded as unknown (implicit) parameters.
translated by 谷歌翻译
尽管语义通信对大量任务表现出令人满意的性能,但语义噪声和系统的鲁棒性的影响尚未得到很好的研究。语义噪声是指预期的语义符号和接收到的语义符号之间的误导性,从而导致任务失败。在本文中,我们首先提出了一个框架,用于稳健的端到端语义通信系统来对抗语义噪声。特别是,我们分析了样品依赖性和样本无关的语义噪声。为了打击语义噪声,开发了具有重量扰动的对抗训练,以在训练数据集中纳入带有语义噪声的样品。然后,我们建议掩盖一部分输入,在该输入中,语义噪声经常出现,并通过噪声相关的掩蔽策略设计蒙版vector量化量化的量化自动编码器(VQ-VAE)。我们使用发射器共享的离​​散代码簿和接收器用于编码功能表示。为了进一步提高系统鲁棒性,我们开发了一个功能重要性模块(FIM),以抑制与噪声相关和任务无关的功能。因此,发射器只需要在代码簿中传输这些重要的任务相关功能的索引即可。仿真结果表明,所提出的方法可以应用于许多下游任务,并显着提高针对语义噪声的鲁棒性,并显着减少了传输开销。
translated by 谷歌翻译
在带有频划分双链体(FDD)的常规多用户多用户多输入多输出(MU-MIMO)系统中,尽管高度耦合,但已单独设计了通道采集和预编码器优化过程。本文研究了下行链路MU-MIMO系统的端到端设计,其中包括试点序列,有限的反馈和预编码。为了解决这个问题,我们提出了一个新颖的深度学习(DL)框架,该框架共同优化了用户的反馈信息生成和基础站(BS)的预编码器设计。 MU-MIMO系统中的每个过程都被智能设计的多个深神经网络(DNN)单元所取代。在BS上,神经网络生成试验序列,并帮助用户获得准确的频道状态信息。在每个用户中,频道反馈操作是由单个用户DNN以分布方式进行的。然后,另一个BS DNN从用户那里收集反馈信息,并确定MIMO预编码矩阵。提出了联合培训算法以端到端的方式优化所有DNN单元。此外,还提出了一种可以避免针对可扩展设计的不同网络大小进行重新训练的培训策略。数值结果证明了与经典优化技术和其他常规DNN方案相比,提出的DL框架的有效性。
translated by 谷歌翻译
Communication and computation are often viewed as separate tasks. This approach is very effective from the perspective of engineering as isolated optimizations can be performed. On the other hand, there are many cases where the main interest is a function of the local information at the devices instead of the local information itself. For such scenarios, information theoretical results show that harnessing the interference in a multiple-access channel for computation, i.e., over-the-air computation (OAC), can provide a significantly higher achievable computation rate than the one with the separation of communication and computation tasks. Besides, the gap between OAC and separation in terms of computation rate increases with more participating nodes. Given this motivation, in this study, we provide a comprehensive survey on practical OAC methods. After outlining fundamentals related to OAC, we discuss the available OAC schemes with their pros and cons. We then provide an overview of the enabling mechanisms and relevant metrics to achieve reliable computation in the wireless channel. Finally, we summarize the potential applications of OAC and point out some future directions.
translated by 谷歌翻译
The current optical communication systems minimize bit or symbol errors without considering the semantic meaning behind digital bits, thus transmitting a lot of unnecessary information. We propose and experimentally demonstrate a semantic optical fiber communication (SOFC) system. Instead of encoding information into bits for transmission, semantic information is extracted from the source using deep learning. The generated semantic symbols are then directly transmitted through an optical fiber. Compared with the bit-based structure, the SOFC system achieved higher information compression and a more stable performance, especially in the low received optical power regime, and enhanced the robustness against optical link impairments. This work introduces an intelligent optical communication system at the human analytical thinking level, which is a significant step toward a breakthrough in the current optical communication architecture.
translated by 谷歌翻译