首页 > 编程知识 正文

图神经网络模型,基于神经网络的时间序列预测

时间:2023-05-06 11:26:30 阅读:10458 作者:1360

点击上方,选择星标,每天送干货!

整理:北邮伽马lab

AAI的英文全名是associationfortheadvanceofartificialintelligence 3354美国人工智能协会。 该协会是人工智能领域的主要学术组织之一,其主办的年会也是人工智能领域的国际顶级会议。 在中国计算机学会国际学术会议排行榜及清华大学新发布的计算机科学推荐学术会议和期刊名单中,AAAI均为人工智能领域的 A 类顶级会议

AAAI 2021论文的接收名单如下。

3359 aaai.org/conferences/aaai-21/WP-content/uploads/2020/12/aaai-21 _ acepted-paper-list.main

本文主要梳理了AAAI2021上图神经网络方面的最新进展,主要涵盖:

更加基础的研究:表示能力/过平滑/传播机制/灾难性遗忘

更加复杂的图数据:异质图/有向图/动态图

更加丰富的训练策略:混合培训/数据放大/比较培训

更加多样化的应用:推荐/药物化学/物理系统/NLP/CV

随着更基础的研究GNN研究的深入,一些研究者不仅仅关注模型体系结构的设计,还试图挖掘和解决GNN更基础的问题,如GNN的表达能力。

表示能力:大部分GNN的显示能力上限为WL-Test,无法区分同构图结构,更无法学习有区别的节点显示。 ID-GNN[1]用简单的ID增强策略可以大大提高GNN的显示能力,区分本来不能区分的图结构(或GNN的聚合图)。

过平滑:“传播是GNN的本质”。 但是,深层GNN发布远程信息会带来平滑现象,降低模型的效果。 GCC[2]不仅研究了GNN的传播机制,解释了过平滑的本质,而且解决了为什么GNN的各种变种能在一定程度上缓解过平滑现象。

灾难性遗忘:意味着模型会忘记以前学到的东西,NN上已经进行了一些研究。 TWP[3]研究了GNN上的遗忘问题,提出了拓扑感知的权值保持技术来克服上述问题。 相似的ER-GCN[4]还可以利用经验性播放机制实现GNN连续任务下的持续学习,在一定程度上缓解遗忘问题。

更复杂的图数据在GNN研究初期,关注简单同态图(只有一种节点和边),大大降低了代码实现的难度。 例如,经典的GCN只能通过AXW实现。 但实际情况往往更加复杂,随着GNN研究的深入,人们开始关注异质图、动态图、有向图、超图等更加复杂现实的图数据。

异质图:考虑到多种类型节点之间的丰富交互,必须将其建模为异质图以避免信息丢失。 GraphMSE[5]是为异质图形数据设计的GNN,在多种交互下充分挖掘邻居(结构)的信息,提高节点表达。 HGSL[6]探索异质图结构对节点表示的影响,通过学习更准确的图结构来提高GNN的表示。

符号网络:微博图中,用户之间感兴趣、拉黑等关系实际上是有向符号网络。 SDGNN[7]是一种为有向图设计的图形神经网络,具有边缘方向/符号(喜欢正,不喜欢负)和动态图演化理论)状态图和平衡图

动态图:图数据往往是动态变化的。 HVGNN[8]在双曲空间建模了动态图的时间演化特性,引入了1

种时间感知的注意力机制(Temporal GNN)来区分不同时间段内节点的差异。RNN-GCN[9]则是将经典的时序模型RNN引入到GNN中,利用dynamic stochastic block来捕获节点和社区的演化过程,进而实现动态图上的节点聚类。

更加丰富的训练策略

经典的GNN(包括GCN和GAT)都是以半监督节点分类Loss进行训练的。随后的研究也沿着这个路线,将目光集中在如何设计更加精巧的模型架构来提升模型效果。的确,复杂的模型可以提升效果,但是其往往超参数较多且难以训练。相较于设计新的模型架构,一些研究者开始探索如何利用训练策略(如数据扩增)来提升现有GNN模型的效果。

混合训练:GraphMix[10]整合了interpolation数据扩增和self-training数据扩增技术,将简单的GCN架构提升到接近SOTA的效果。例如,原始的GCN在Cora的效果只有81.3,而GraphMix训练策略可以将GCN的效果提升至83.94。同时,GraphMix无需额外的内存消耗,计算消耗也几乎不变。

数据扩增:类似的,GAUG[11]也尝试从数据扩增的角度来提升现有半监督GNN的效果。具体来说,GAUG设计了一个edge prediction来编码图上节点的类内同质结构,然后提升类内边的数量(移除类间边)。然后,基于修改后的更加精准的图结构,在Cora数据集上,GAUG将GCN的效果提升至83.6,将GraphSAGE的效果提升至83.2。

对比训练:与上述两个工作不同,Contrastive GCNs with Graph Generation (CG3)[12] 尝试对标签进行增强。实际上,如果没有足够的监督信号,半监督学习Semi-Supervised Learning (SSL)的效果都是有限的。考虑到图上半监督学习的特点,本文不仅仅考虑了同类数据不同view之间的相关性,还建模了节点属性和图拓扑结构之间的潜在联系来作为额外的监督信号。基于增强后的图监督信号,CG3在标签率只有0.5%的情况下,可以取得8%左右的绝对准确率提升!

更加多样化的应用

推荐:图上的链路预测实际就是推荐。将GNN用到推荐中是非常自然的一件事。HGSRec[13]将异质图神经网络用于建模淘宝用户之间的分享行为,预测了用户之间的三元分享行为。GHCF[14]将推荐系统中多样的用户-商品交互建模为多关系异质图并设计了相应的图神经网络架构来实现推荐。DHCN[15]建模了Session-based Recommendation中的超图交互,利用双通道的超图卷积网络来实现商品推荐。

药物化学:图结构数据可以很好地建模分子及其之间的化学键。因此,AI制药开始尝试利用GNN来实现药物分子的研发(如性质预测,逆合成)。GTA[16]将GNN用于药物分子领域的逆合成预测问题,CAGG[17]则是从图生成的角度来实现药物分子的合成。

CV:MGTN[18]将图像数据转为图结构数据,利用图像中不同目标(建模为子图)之间的关系建模来实现更好的多类图像分类,而PC-RGNN[19]将点云数据建模为图,利用图上不同尺度的关系聚合来强化其点云的表示。

参考文献

Identity-aware Graph Neural Networks

Why Do Attributes Propagate in Graph Convolutional Neural Networks

Overcoming Catastrophic Forgetting in Graph Neural Networks

Overcoming Catastrophic Forgetting in Graph Neural Networks with Experience Replay

GraphMSE: Efficient Meta-path Selection in Semantically Aligned Feature Space for Graph Neural Networks

Heterogeneous Graph Structure Learning for Graph Neural Networks

SDGNN: Learning Node Representation for Signed Directed Networks

Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs

Interpretable Clustering on Dynamic Graphs with Recurrent Graph Neural Networks

GraphMix: Improved Training of GNNs for Semi-Supervised Learning

Data Augmentation for Graph Neural Networks

Contrastive and Generative Graph Convolutional Networks for Graph-based Semi-Supervised Learning

Who You Would Like to Share With? A Study of Share Recommendation in Social E-commerce

Graph Heterogeneous Multi-Relational Recommendation

Self-Supervised Hypergraph Convolutional Networks for Session-based Recommendation

GTA: Graph Truncated Attention for Retrosynthesis

Cost-Aware Graph Generation: A Deep Bayesian Optimization Approach

Modular Graph Transformer Networks for Multi-Label Image Classification

PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object Detection

说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心。

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐两个专辑给大家:

专辑 | wsdkj人类语言处理2020笔记

专辑 | NLP论文解读

专辑 | 情感分析

整理不易,还望给个在看!

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。