首页 > 编程知识 正文

图神经网络入门,卷积神经网络池化层作用

时间:2023-05-05 03:34:21 阅读:10441 作者:3783

图形神经网络有两个层次的任务。 一个是“图形级别”,另一个是“节点”级别。 图形级别的任务是对整个图进行分类或回归),节点级别是对图中的节点进行分类回归(交通网络、道路流量预测)。 图级任务要求聚合包含所有节点和所有边的图的全局信息,聚合全局信息以获得表示所有图的向量,然后对该向量进行分类回归操作。

如何将全球信息表示为一个向量? 在图像分类和回归任务中有池化操作,在图数据中同样导入池化操作。

目录

1、全球池化

1.1自述

1.2全局虚拟节点

2、分层池化

2.1基于坍方的池化机制

2.2基于topk的池化机制

2.3边收缩池化机理

参考文献

1、全局池化1.1 readout读取操作(readout(1)最简单的池化操作,其操作方式如下:

其中有操作。 也就是说,readout直接针对图中的所有节点求出最大值,进行合计,求出平均值,将得到的值作为图的输出。

1.2全局虚拟节点全局虚拟节点[2]是指引入连接到图中所有节点并还参与整个图的卷积等操作的虚拟节点。 最后,该虚拟节点的隐含特征是整个图的特征。 示意图如下。

引入图中原始节点为的全局节点。

2、分层池化分层池化经过k圈消息传递,节点可以提取更多全局信息。

2.1基于斜坡的池化机制斜坡是指将图中的节点分成几个节点集群,并且每个节点集群作为下一斜坡的节点。

目前,DIFFOOL[3]和EigenPooL[4]是基于两个斜坡的图形神经网络算法

2.2基于topk的池化机制TopK[5]池化机制与上面的图表不同。 图表渐变是将图表节点一个接一个地聚集在一起的过程,而topk是一个接一个地丢弃节点的过程。 具体来说,设定超级参数。 其中,学习表示节点重要度的值,根据重要度按降序对节点进行排序,选择最重要的节点。 表达式表示以下:

表示切片操作。 保留节点及其连接的边

如何选择也是创新之处。 在论文中,作者引入了全局基向量,并以节点向量在该向量上的投影为重要度:

其中是节点特征向量。 论文所示的TopK的模型结构如下。

该作者还在每个层被池化后添加读取操作,并在最后一层进行添加,从而有助于信息融合,尽管有节点。

2.3基于边收缩的池化机制该方法将各边节点双重合并形成新节点,同时保留合并前两个节点的联系与新节点相连。 EdgePool[6]是一种基于边收缩的池化图表网络,下面介绍其相关算法。

首先,计算每个边缘的原始分数。

从下图(左) a、b、c、d四个点计算出的边的原分数

根据输入值计算各边缘的得分。

节点的点数是边进度的边的点数之和

如下图(左中)所示,d的值为,c的值为。

计算相对于该入度节点的边值的正规化

如下图(右中)所示,C-D的边的值为1.6/1.5=1

最后,选择最多未选择分数的两个节点进行折叠操作。

收缩后节点的更新方法如下。

可以进行求和、求平均、全连接等操作。

参考文献[1] Gilmer J,Schoenholz S S,Riley P F,et al.neuralmessagepassingforquantumchemistry [ j ].arxivpreprintarxiv 33601704

[2]Pham T,Tran T,Dam H,et al.graphclassificationviadeeplearningwithvirtualnodes [ j ].arxivpreprintarxiv 33608.043000

[3]Ying Z,You J,Morris C,et al.hierarchicalgraphrepresentationlearningwithdifferentiablepooling [ c ]/advancesineus

[4]Ma Y,Wang S,Aggarwal C C,et al.graphconvolutionalnetworkswitheigenpooling [ c ]//proceedings of the 25 thacmsigkdinted

[5]Cangea C,Velikovi P,Jovanovi N,et al.towardssparsehierarchicalgraphclassifiers [ j ].arxivpreprintarxiv 33601811.00000

[6] diehlf.edgecontractionpoolingforgraphneuralnetworks [ j ].arxivpreprintarxiv 33601905.10990,2019。

[7] rzdxxm,cxddd,友好之花,《深入浅出图神经网络:GNN原理解析》

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。