由于许多科学领域的图形,从数学,生物学,社会科学和物理学到计算机科学的图形,动态图神经网络最近变得越来越重要。尽管时间变化(动态)在许多现实世界应用中起着至关重要的作用,但图形神经网络(GNN)过程静态图的文献中的大多数模型。动态图上的少数GNN模型仅考虑特殊的动力学情况,例如Node属性 - 动态图或结构 - 动力学图,仅限于图形边缘的添加或更改等。因此,我们提供了一个新颖的全动态图形神经网络(可以在连续时间处理完全动态图的fdgnn)。提出的方法提供了一个节点和一个边缘嵌入,其中包括其活动以解决添加和删除的节点或边缘以及可能的属性。此外,嵌入式指定每个事件的时间点进程,以编码结构和属性相关的传入图表事件的分布。此外,可以通过考虑用于本地再培训的单个事件来有效地更新我们的模型。
translated by 谷歌翻译
Graphs are ubiquitous in nature and can therefore serve as models for many practical but also theoretical problems. For this purpose, they can be defined as many different types which suitably reflect the individual contexts of the represented problem. To address cutting-edge problems based on graph data, the research field of Graph Neural Networks (GNNs) has emerged. Despite the field's youth and the speed at which new models are developed, many recent surveys have been published to keep track of them. Nevertheless, it has not yet been gathered which GNN can process what kind of graph types. In this survey, we give a detailed overview of already existing GNNs and, unlike previous surveys, categorize them according to their ability to handle different graph types and properties. We consider GNNs operating on static and dynamic graphs of different structural constitutions, with or without node or edge attributes. Moreover, we distinguish between GNN models for discrete-time or continuous-time dynamic graphs and group the models according to their architecture. We find that there are still graph types that are not or only rarely covered by existing GNN models. We point out where models are missing and give potential reasons for their absence.
translated by 谷歌翻译
时间图代表实体之间的动态关系,并发生在许多现实生活中的应用中,例如社交网络,电子商务,通信,道路网络,生物系统等。他们需要根据其生成建模和表示学习的研究超出与静态图有关的研究。在这项调查中,我们全面回顾了近期针对处理时间图提出的神经时间依赖图表的学习和生成建模方法。最后,我们确定了现有方法的弱点,并讨论了我们最近发表的论文提格的研究建议[24]。
translated by 谷歌翻译
我们提出了一种新型的复发图网络(RGN)方法,用于通过学习潜在的复杂随机过程来预测离散标记的事件序列。使用点过程的框架,我们将标记的离散事件序列解释为各种唯一类型的不同序列的叠加。图网络的节点使用LSTM来合并过去的信息,而图形注意力网络(GAT网络)引入了强烈的电感偏见,以捕获这些不同类型的事件之间的相互作用。通过更改自我注意力的机制从过去的事件中参加活动,我们可以从$ \ MATHCAL {O}(n^2)$(事件总数)到$ \ Mathcal的时间和空间复杂性降低{o}(| \ Mathcal {y} |^2)$(事件类型的数量)。实验表明,与最新的基于最新的变压器架构相比,所提出的方法可以提高对数可能具有较低时间和空间复杂性的对数可能具有较低时间和空间复杂性的任务的性能。
translated by 谷歌翻译
最近,对从交互数据提取信息的大量兴趣。传统上,这是通过将其建模为动态网络中特定时间的配对交互来完成的。然而,真实世界的互动很少是对的;它们可以涉及超过两个节点。在文献中,这些类型的群组交互由HyperUredges /超链接建模。现有的HIFEBEGE建模工作仅关注静态网络,并且它们无法模拟节点的时间演变,因为它们与其他节点交互。此外,它们无法应答时间查询,如下一步以及发生交互时将发生的相互作用类型。为了解决这些限制,在本文中,我们开发了一种用于超链接预测的时间点过程模型。我们提出的模型使用用于节点的动态表示技术来模拟演化,并在神经点过程框架中使用该表示来制作推断。我们在五个现实世界交互数据上评估我们的模型,并显示我们的动态模型在静态模型上具有显着的性能增益。此外,我们还展示了我们在对双向交互建模技术上的技术的优势。
translated by 谷歌翻译
时间点过程作为连续域的随机过程通常用于模拟具有发生时间戳的异步事件序列。由于深度神经网络的强烈表达性,在时间点过程的背景下,它们是捕获异步序列中的模式的有希望的选择。在本文中,我们首先审查了最近的研究强调和困难,在深处时间点过程建模异步事件序列,可以得出四个领域:历史序列的编码,条件强度函数的制定,事件的关系发现和学习方法优化。我们通过将其拆除进入四个部分来介绍最近提出的模型,并通过对公平实证评估的相同学习策略进行重新涂布前三个部分进行实验。此外,我们扩展了历史编码器和条件强度函数家族,并提出了一种GRANGER因果区发现框架,用于利用多种事件之间的关系。因为格兰杰因果关系可以由格兰杰因果关系图表示,所以采用分层推断框架中的离散图结构学习来揭示图的潜在结构。进一步的实验表明,具有潜在图表发现的提议框架可以捕获关系并实现改进的拟合和预测性能。
translated by 谷歌翻译
Graph learning is a popular approach for performing machine learning on graph-structured data. It has revolutionized the machine learning ability to model graph data to address downstream tasks. Its application is wide due to the availability of graph data ranging from all types of networks to information systems. Most graph learning methods assume that the graph is static and its complete structure is known during training. This limits their applicability since they cannot be applied to problems where the underlying graph grows over time and/or new tasks emerge incrementally. Such applications require a lifelong learning approach that can learn the graph continuously and accommodate new information whilst retaining previously learned knowledge. Lifelong learning methods that enable continuous learning in regular domains like images and text cannot be directly applied to continuously evolving graph data, due to its irregular structure. As a result, graph lifelong learning is gaining attention from the research community. This survey paper provides a comprehensive overview of recent advancements in graph lifelong learning, including the categorization of existing methods, and the discussions of potential applications and open research problems.
translated by 谷歌翻译
保持个人特征和复杂的关系,广泛利用和研究了图表数据。通过更新和聚合节点的表示,能够捕获结构信息,图形神经网络(GNN)模型正在获得普及。在财务背景下,该图是基于实际数据构建的,这导致复杂的图形结构,因此需要复杂的方法。在这项工作中,我们在最近的财务环境中对GNN模型进行了全面的审查。我们首先将普通使用的财务图分类并总结每个节点的功能处理步骤。然后,我们总结了每个地图类型的GNN方法,每个区域的应用,并提出一些潜在的研究领域。
translated by 谷歌翻译
Networks have become indispensable and ubiquitous structures in many fields to model the interactions among different entities, such as friendship in social networks or protein interactions in biological graphs. A major challenge is to understand the structure and dynamics of these systems. Although networks evolve through time, most existing graph representation learning methods target only static networks. Whereas approaches have been developed for the modeling of dynamic networks, there is a lack of efficient continuous time dynamic graph representation learning methods that can provide accurate network characterization and visualization in low dimensions while explicitly accounting for prominent network characteristics such as homophily and transitivity. In this paper, we propose the Piecewise-Velocity Model (PiVeM) for the representation of continuous-time dynamic networks. It learns dynamic embeddings in which the temporal evolution of nodes is approximated by piecewise linear interpolations based on a latent distance model with piecewise constant node-specific velocities. The model allows for analytically tractable expressions of the associated Poisson process likelihood with scalable inference invariant to the number of events. We further impose a scalable Kronecker structured Gaussian Process prior to the dynamics accounting for community structure, temporal smoothness, and disentangled (uncorrelated) latent embedding dimensions optimally learned to characterize the network dynamics. We show that PiVeM can successfully represent network structure and dynamics in ultra-low two-dimensional spaces. It outperforms relevant state-of-art methods in downstream tasks such as link prediction. In summary, PiVeM enables easily interpretable dynamic network visualizations and characterizations that can further improve our understanding of the intrinsic dynamics of time-evolving networks.
translated by 谷歌翻译
人口级社会事件,如民事骚乱和犯罪,往往对我们的日常生活产生重大影响。预测此类事件对于决策和资源分配非常重要。由于缺乏关于事件发生的真实原因和潜在机制的知识,事件预测传统上具有挑战性。近年来,由于两个主要原因,研究事件预测研究取得了重大进展:(1)机器学习和深度学习算法的开发和(2)社交媒体,新闻来源,博客,经济等公共数据的可访问性指标和其他元数据源。软件/硬件技术中的数据的爆炸性增长导致了社会事件研究中的深度学习技巧的应用。本文致力于提供社会事件预测的深层学习技术的系统和全面概述。我们专注于两个社会事件的域名:\ Texit {Civil unrest}和\ texit {犯罪}。我们首先介绍事件预测问题如何作为机器学习预测任务制定。然后,我们总结了这些问题的数据资源,传统方法和最近的深度学习模型的发展。最后,我们讨论了社会事件预测中的挑战,并提出了一些有希望的未来研究方向。
translated by 谷歌翻译
微生物组构成中的大规模扰动与人类生理的健康和功能密切相关,无论是驱动力还是后果。但是,由于微生物之间的大量复杂相互作用,了解健康和疾病个体的微生物组轮廓的差异可能会变得复杂。我们建议将这些相互作用建模为随时间变化的图,其节点是微生物,边缘是它们之间的相互作用。由于需要分析这种复杂的相互作用的需要,我们开发了一种方法,该方法可以学习时间不断发展的图表的低维表示,并保持在高维空间中发生的动力学。通过我们的实验,我们表明我们可以提取图形特征,例如节点簇或边缘簇,这些节点或边缘对模型具有最大影响,以学习低维表示。这些信息对于鉴定与临床疾病密切相关的微生物以及它们之间的相互作用至关重要。我们对合成和现实世界微生物组数据集进行了实验。
translated by 谷歌翻译
图形结构化数据通常在自然界中具有动态字符,例如,在许多现实世界中,链接和节点的添加。近年来见证了对这种图形数据进行建模的动态图神经网络所支付的越来越多的注意力,几乎所有现有方法都假设,当建立新的链接时,应通过学习时间动态来传播邻居节点的嵌入。新的信息。但是,这种方法遭受了这样的限制,如果新连接引入的节点包含嘈杂的信息,那么将其知识传播到其他节点是不可靠的,甚至导致模型崩溃。在本文中,我们提出了Adanet:通过增强动态图神经网络的强化知识适应框架。与以前的方法相反,一旦添加了新链接,就立即更新邻居节点的嵌入方式,Adanet试图自适应地确定由于涉及的新链接而应更新哪些节点。考虑到是否更新一个邻居节点的嵌入的决定将对其他邻居节点产生很大的影响,因此,我们将节点更新的选择作为序列决策问题,并通过强化学习解决此问题。通过这种方式,我们可以将知识自适应地传播到其他节点,以学习健壮的节点嵌入表示。据我们所知,我们的方法构成了通过强化学习的动态图神经网络来探索强大知识适应的首次尝试。在三个基准数据集上进行的广泛实验表明,Adanet可以实现最新的性能。此外,我们通过在数据集中添加不同程度的噪声来执行实验,并定量和定性地说明ADANET的鲁棒性。
translated by 谷歌翻译
Deep learning has revolutionized many machine learning tasks in recent years, ranging from image classification and video processing to speech recognition and natural language understanding. The data in these tasks are typically represented in the Euclidean space. However, there is an increasing number of applications where data are generated from non-Euclidean domains and are represented as graphs with complex relationships and interdependency between objects. The complexity of graph data has imposed significant challenges on existing machine learning algorithms. Recently, many studies on extending deep learning approaches for graph data have emerged. In this survey, we provide a comprehensive overview of graph neural networks (GNNs) in data mining and machine learning fields. We propose a new taxonomy to divide the state-of-the-art graph neural networks into four categories, namely recurrent graph neural networks, convolutional graph neural networks, graph autoencoders, and spatial-temporal graph neural networks. We further discuss the applications of graph neural networks across various domains and summarize the open source codes, benchmark data sets, and model evaluation of graph neural networks. Finally, we propose potential research directions in this rapidly growing field.
translated by 谷歌翻译
我们考虑使用图形结构的概率预测问题,顶点的动态取决于其本地连接结构。我们提出了Gopher,一种方法,该方法将图形神经网络的感应偏差与神经杂物核对捕获了我们概率预测的内在局部连续动态。通过与基线模型进行比较,我们研究了这两个归纳偏差的好处,从而有助于解开每个益处的基线模型。我们发现,捕获图形结构对于准确的域概率预测和更具样本的高效模型至关重要。令人惊讶的是,我们的实验表明,尽管反映了真正的概率动态,但连续时间进化电感偏差很少没有利益。
translated by 谷歌翻译
提出了一种新的动态网络模型,称为相互刺激的点处理图(MEG)。 MEG是一种可扩展的网络范围统计模型,用于多达数码标记的点进程,可用于评估未来事件的重要事件时,包括以前未观察到的连接的异常检测。该模型组合了互励磁点过程来估计事件和潜在空间模型之间的依赖性,以推断节点之间的关系。每个网络边缘的强度函数专用于节点特定参数参数,允许跨网络共享信息。这种结构甚至可以估计强度,即使对于未被观察的边缘,这在现实世界中尤其重要,例如网络安全中产生的计算机网络。获得了日志似然的递归形式,用于通过现代梯度上升算法推导快速推理过程。也导出了EM算法。该模型在模拟图和现实世界数据集上进行测试,展示出色的性能。
translated by 谷歌翻译
由于其独立性与标签及其稳健性的独立性,自我监督的学习最近引起了很多关注。目前关于本主题的研究主要使用诸如图形结构的静态信息,但不能很好地捕获诸如边缘时间戳的动态信息。现实图形通常是动态的,这意味着节点之间的交互发生在特定时间。本文提出了一种自我监督的动态图形表示学习框架(DYSUBC),其定义了一个时间子图对比学学习任务,以同时学习动态图的结构和进化特征。具体地,首先提出了一种新的时间子图采样策略,其将动态图的每个节点作为中心节点提出,并使用邻域结构和边缘时间戳来采样相应的时间子图。然后根据在编码每个子图中的节点之后,根据中心节点上的邻域节点的影响设计子图表示功能。最后,定义了结构和时间对比损失,以最大化节点表示和时间子图表示之间的互信息。五个现实数据集的实验表明(1)DySubc比下游链路预测任务中的两个图形对比学习模型和四个动态图形表示学习模型更好地表现出更好的相关基线,(2)使用时间信息不能使用只有更有效的子图,还可以通过时间对比损失来学习更好的表示。
translated by 谷歌翻译
由于长期没有事件,处理动态数据时,陈旧问题是一个众所周知的问题。由于仅当节点参与事件时才更新节点的内存,因此其内存变为陈旧。通常,它是指缺乏社会帐户的时间停用等事件。为了克服内存的陈旧问题问题,除节点内存外,还来自节点邻居内存的信息。受此启发的启发,我们设计了一个更新的嵌入模块,该模块除节点邻居外还插入最相似的节点。我们的方法获得了与TGN相似的结果,并略有改进。这可能表明在微调我们的超参数后,尤其是时间阈值并使用可学习的相似度度量后,可能会有所改善。
translated by 谷歌翻译
任何人类活动都可以表示为实现某个目标的行动的时间顺序。与机器制造的时间序列不同,这些动作序列是高度分散的,因为在不同的人之间完成类似动作的时间可能会有所不同。因此,了解这些序列的动力学对于许多下游任务,例如活动长度预测,目标预测等都是必不可少的。对活动序列建模的现有神经方法要么仅限于视觉数据,要么是特定于任务的神经方法,即仅限于下一个动作或目标预测。在本文中,我们提出了积极主动的,是一个神经标记的时间点过程(MTPP)框架,用于建模活动序列中的动作连续时间分布,同时解决三个高影响力问题 - 下一步动作预测,序列 - 目标预测,序列预测,和端到端序列生成。具体而言,我们利用具有时间归一化流量的自我发项模块来模拟序列中的动作之间的影响和到达时间间的时间。此外,对于时间敏感的预测,我们通过基于边缘的优化程序进行了序列目标的早期检测。这种往返允许积极主动使用有限数量的动作来预测序列目标。从三个活动识别数据集得出的序列进行的广泛实验表明,在动作和目标预测方面,主动的准确性提升了,并且是有史以来第一次应用端到端动作序列生成的实验。
translated by 谷歌翻译
即使机器学习算法已经在数据科学中发挥了重要作用,但许多当前方法对输入数据提出了不现实的假设。由于不兼容的数据格式,或数据集中的异质,分层或完全缺少的数据片段,因此很难应用此类方法。作为解决方案,我们提出了一个用于样本表示,模型定义和培训的多功能,统一的框架,称为“ Hmill”。我们深入审查框架构建和扩展的机器学习的多个范围范式。从理论上讲,为HMILL的关键组件的设计合理,我们将通用近似定理的扩展显示到框架中实现的模型所实现的所有功能的集合。本文还包含有关我们实施中技术和绩效改进的详细讨论,该讨论将在MIT许可下发布供下载。该框架的主要资产是其灵活性,它可以通过相同的工具对不同的现实世界数据源进行建模。除了单独观察到每个对象的一组属性的标准设置外,我们解释了如何在框架中实现表示整个对象系统的图表中的消息推断。为了支持我们的主张,我们使用框架解决了网络安全域的三个不同问题。第一种用例涉及来自原始网络观察结果的IoT设备识别。在第二个问题中,我们研究了如何使用以有向图表示的操作系统的快照可以对恶意二进制文件进行分类。最后提供的示例是通过网络中实体之间建模域黑名单扩展的任务。在所有三个问题中,基于建议的框架的解决方案可实现与专业方法相当的性能。
translated by 谷歌翻译
通过人类活动(例如在线购买,健康记录,空间流动性等)生成的大量数据可以在连续时间内表示为一系列事件。在这些连续的时间事件序列上学习深度学习模型是一项非平凡的任务,因为它涉及建模不断增加的事件时间戳,活动间时间差距,事件类型以及不同序列内部和跨不同序列之间的不同事件之间的影响。近年来,对标记的时间点过程(MTPP)的神经增强功能已成为一种强大的框架,以模拟连续时间内定位的异步事件的基本生成机制。但是,MTPP框架中的大多数现有模型和推理方法仅考虑完整的观察方案,即所建模的事件序列是完全观察到的,没有丢失的事件 - 理想的设置很少适用于现实世界应用程序。最近考虑的事件的最新工作是在培训MTPP时采用监督的学习技术,这些技术需要以序列的方式了解每个事件的丢失或观察标签,这进一步限制了其实用性,因为在几种情况下,缺失事件的细节是不知道的apriori 。在这项工作中,我们提供了一种新颖的无监督模型和推理方法,用于在存在事件序列的情况下学习MTPP。具体而言,我们首先使用两个MTPP模拟观察到的事件和缺失事件的生成过程,其中缺少事件表示为潜在的随机变量。然后,我们设计了一种无监督的训练方法,该方法通过变异推断共同学习MTPP。这样的公式可以有效地将丢失的数据归为观察到的事件,并可以在序列中确定缺失事件的最佳位置。
translated by 谷歌翻译