python机器学习GCN图卷积神经网络的原理是什么

蜗牛 互联网技术资讯 2022-05-10 14 0

这篇文章主要介绍“python机器学习GCN图卷积神经网络的原理是什么”,在日常操作中,相信很多人在python机器学习GCN图卷积神经网络的原理是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”python机器学习GCN图卷积神经网络的原理是什么”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

    1. 图信号处理知识

    图卷积神经网络涉及到图信号处理的相关知识,也是由图信号处理领域的知识推导发展而来,了解图信号处理的知识是理解图卷积神经网络的基础。

    1.1 图的拉普拉斯矩阵

    拉普拉斯矩阵是体现图结构关联的一种重要矩阵,是图卷积神经网络的一个重要部分。

    1.1.1 拉普拉斯矩阵的定义及示例

    实例:

    python机器学习GCN图卷积神经网络的原理是什么  python 第1张

    按照上述计算式子,可以得到拉普拉斯矩阵为:

    python机器学习GCN图卷积神经网络的原理是什么  python 第2张

    1.1.2 正则化拉普拉斯矩阵

    1.1.3 拉普拉斯矩阵的性质

    python机器学习GCN图卷积神经网络的原理是什么  python 第3张

    1.2 图上的傅里叶变换

    傅里叶变换是一种分析信号的方法,它可分析信号的成分,也可用这些成分合成信号。它将信号从时域转换到频域,从频域视角给出了信号处理的另一种解法。(1)对于图结构,可以定义图上的傅里叶变换(GFT),对于任意一个在图G上的信号x,其傅里叶变换表示为:

    python机器学习GCN图卷积神经网络的原理是什么  python 第4张

    从线代角度,可以清晰的看出:v1,…, vn构成了N维特征空间中的一组完备基向量,G中任意一个图信号都可表示为这些基向量的线性加权求和,系数为图信号对应傅里叶基上的傅里叶系数。

    回到之前提到的拉普拉斯矩阵刻画平滑度的总变差:

    python机器学习GCN图卷积神经网络的原理是什么  python 第5张

    可以看成:刻画图平滑度的总变差是图中所有节点特征值的线性组合,权值为傅里叶系数的平方。总变差取最小值的条件是图信号与最小的特征值所对应的特征向量完全重合,结合其描述图信号整体平滑度的意义,可将特征值等价成频率:特征值越低,频率越低,对应的傅里叶基变化缓慢,即相近节点的信号值趋于一致。

    把图信号所有的傅里叶系数结合称为频谱(spectrum),频域的视角从全局视角既考虑信号本身,也考虑到图的结构性质。

    1.3 图信号滤波器

    图滤波器(Graph Filter)为对图中的频率分量进行增强或衰减,图滤波算子核心为其频率响应矩阵,为滤波器带来不同的滤波效果。

    故图滤波器根据滤波效果可分为低通,高通和带通。

    低通滤波器:保留低频部分,关注信号的平滑部分;

    高通滤波器:保留高频部分,关注信号的剧烈变化部分;

    带通滤波器:保留特定频段部分;

    而拉普拉斯矩阵多项式扩展可形成图滤波器H:

    python机器学习GCN图卷积神经网络的原理是什么  python 第6张

    2. 图卷积神经网络

    2.1 数学定义

    图卷积运算的数学定义为:

    python机器学习GCN图卷积神经网络的原理是什么  python 第7张

    上述公式存在一个较大问题:学习参数为N,这涉及到整个图的所有节点,对于大规模数据极易发生过拟合。

    进一步的化简推导:将之前说到的拉普拉斯矩阵的多项式展开代替上述可训练参数矩阵。

    python机器学习GCN图卷积神经网络的原理是什么  python 第8张

    此结构内容即定义为图卷积层(GCN layer),有图卷积层堆叠得到的网络模型即为图卷积网络GCN。

    2.2 GCN的理解及时间复杂度

    图卷积层是对频率响应矩阵的极大化简,将本要训练的图滤波器直接退化为重归一化拉普拉斯矩阵

    python机器学习GCN图卷积神经网络的原理是什么  python 第9张

    2.3 GCN的优缺点

    优点:GCN作为近年图神经网络的基础之作,对处理图数据非常有效,其对图结构的结构信息和节点的属性信息同时学习,共同得到最终的节点特征表示,考虑到了节点之间的结构关联性,这在图操作中是非常重要的。

    缺点:过平滑问题(多层叠加之后,节点的表示向量趋向一致,节点难以区分),由于GCN具有一个低通滤波器的作用(j聚合特征时使得节点特征不断融合),多次迭代后特征会趋于相同。

    3. Pytorch代码解析

    GCN层的pytorch实现:

    class GraphConvolutionLayer(nn.Module):
        '''
            图卷积层:Lsym*X*W
                其中 Lsym表示正则化图拉普拉斯矩阵, X为输入特征, W为权重矩阵, X'表示输出特征;
                *表示矩阵乘法
        '''
        def __init__(self, input_dim, output_dim, use_bias=True):
            #初始化, parameters: input_dim-->输入维度, output_dim-->输出维度, use_bias-->是否使用偏置项, boolean
            super(GraphConvolutionLayer,self).__init__()
            self.input_dim=input_dim
            self.output_dim=output_dim
            self.use_bias=use_bias #是否加入偏置, 默认为True
            self.weight=nn.Parameter(torch.Tensor(input_dim, output_dim))#权重矩阵为可训练参数
            if self.use_bias==True: #加入偏置
                self.bias=nn.Parameter(torch.Tensor(output_dim)) 
            else: #设置偏置为空
                self.register_parameter('bias', None)
            self.reset_parameters()
        def reset_parameters(self):
            #初始化参数
            stdv = 1. / math.sqrt(self.weight.size(1))
            self.weight.data.uniform_(-stdv, stdv)#使用均匀分布U(-stdv,stdv)初始化权重Tensor
            if self.bias is not None:
                self.bias.data.uniform_(-stdv, stdv)
        def forward(self, adj, input_feature):
            #前向传播, parameters: adj-->邻接矩阵(输入为正则化拉普拉斯矩阵), input_future-->输入特征矩阵
            temp=torch.mm(input_feature, self.weight)#矩阵乘法, 得到X*W
            output_feature=torch.sparse.mm(adj, temp)#由于邻接矩阵adj为稀疏矩阵, 采用稀疏矩阵乘法提高计算效率, 得到Lsym*temp=Lsym*X*W
            if self.use_bias==True: #若设置了偏置, 加入偏置项
                output_feature+=self.bias
            return output_feature

    定义两层的GCN网络模型:

    class GCN(nn.Module):
        '''
            定义两层GCN网络模型
        '''
        def __init__(self, input_dim, hidden_dim, output_dim):
            #初始化, parameters: input_dim-->输入维度, hidden_dim-->隐藏层维度, output_dim-->输出维度
            super.__init__(GCN, self).__init__()
            #定义两层图卷积层
            self.gcn1=GraphConvolutionLayer(input_dim, hidden_dim)
            self.gcn2=GraphConvolutionLayer(hidden_dim, output_dim)
        def forward(self, adj, feature):
            #前向传播, parameters: adj-->邻接矩阵, feature-->输入特征
            x=F.relu(self.gcn1(adj, feature))
            x=self.gcn2(adj, x)
            return F.log_softmax(x, dim=1)

    到此,关于“python机器学习GCN图卷积神经网络的原理是什么”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注蜗牛博客网站,小编会继续努力为大家带来更多实用的文章!

    免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:niceseo99@gmail.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

    评论