PyG搭建GCN模型实现节点分类GCNConv参数详解

yizhihongxing

下面是关于使用PyG搭建GCN模型实现节点分类以及GCNConv参数详解的攻略,包含两个示例说明。

示例1:使用PyG搭建GCN模型实现节点分类

以下是一个使用PyG搭建GCN模型实现节点分类的示例:

import torch
import torch.nn.functional as F
from torch_geometric.datasets import Planetoid
from torch_geometric.nn import GCNConv
from torch_geometric.utils import train_test_split_edges

# 加载数据
dataset = Planetoid(root='/tmp/Cora', name='Cora')
data = dataset[0]

# 划分训练集、验证集和测试集
data = train_test_split_edges(data)

# 定义模型
class GCN(torch.nn.Module):
    def __init__(self, in_channels, hidden_channels, out_channels):
        super(GCN, self).__init__()
        self.conv1 = GCNConv(in_channels, hidden_channels)
        self.conv2 = GCNConv(hidden_channels, out_channels)

    def forward(self, x, edge_index):
        x = self.conv1(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

model = GCN(dataset.num_features, 16, dataset.num_classes)

# 定义优化器和损失函数
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
criterion = torch.nn.functional.nll_loss

# 训练模型
def train():
    model.train()
    optimizer.zero_grad()
    out = model(data.x, data.train_pos_edge_index)
    loss = criterion(out[data.train_mask], data.y[data.train_mask])
    loss.backward()
    optimizer.step()
    return loss.item()

for epoch in range(1, 201):
    loss = train()
    print('Epoch {:03d}, Loss: {:.4f}'.format(epoch, loss))

# 测试模型
def test():
    model.eval()
    out = model(data.x, data.test_pos_edge_index)
    pred = out.argmax(dim=1)
    accs = []
    for _, mask in data('test_mask'):
        acc = float((pred[mask] == data.y[mask]).sum() / mask.sum())
        accs.append(acc)
    return accs

test_accs = []
for _ in range(10):
    test_accs += test()
print('Accuracy: {:.4f} ± {:.4f}'.format(torch.tensor(test_accs).mean(), torch.tensor(test_accs).std()))

在这个示例中,我们首先使用Planetoid数据集加载Cora数据集,并使用train_test_split_edges()函数将数据集划分为训练集、验证集和测试集。然后,我们使用GCNConv类定义了一个GCN层,并使用GCN类定义了一个GCN模型。接着,我们使用Adam优化器和负对数似然损失函数进行训练,并使用model.eval()函数对模型进行测试,并输出准确率。

示例2:GCNConv参数详解

以下是GCNConv参数的详细说明:

class GCNConv(MessagePassing):
    def __init__(self, in_channels, out_channels, improved=False, cached=False,
                 bias=True, **kwargs):
        super(GCNConv, self).__init__(aggr='add', **kwargs)

        self.in_channels = in_channels
        self.out_channels = out_channels
        self.improved = improved
        self.cached = cached

        self.weight = Parameter(torch.Tensor(in_channels, out_channels))

        if bias:
            self.bias = Parameter(torch.Tensor(out_channels))
        else:
            self.register_parameter('bias', None)

        self.reset_parameters()

    def reset_parameters(self):
        glorot(self.weight)
        zeros(self.bias)

    def forward(self, x, edge_index, edge_weight=None):
        """"""
        if not self.cached or self.cached_result is None:
            self.cached_result = self.propagate(edge_index, x=x, norm=self.norm)
        out = torch.matmul(self.cached_result, self.weight)

        if self.bias is not None:
            out = out + self.bias

        return out

    def message(self, x_j, norm):
        return norm.view(-1, 1) * x_j if norm is not None else x_j

    def __repr__(self):
        return '{}({}, {})'.format(self.__class__.__name__, self.in_channels,
                                    self.out_channels)
  • in_channels:输入特征的维度。
  • out_channels:输出特征的维度。
  • improved:是否使用改进的公式。
  • cached:是否缓存计算结果。
  • bias:是否使用偏置。
  • weight:权重矩阵。
  • bias:偏置向量。
  • reset_parameters():初始化权重和偏置。
  • forward():前向传播函数。
  • message():消息传递函数。

总结

在这个攻略中,我们介绍了如何使用PyG搭建GCN模型实现节点分类,并对GCNConv参数进行了详细说明。在实现GCN模型时,我们首先使用Planetoid数据集加载Cora数据集,并使用train_test_split_edges()函数将数据集划分为训练集、验证集和测试集。然后,我们使用GCNConv类定义了一个GCN层,并使用GCN类定义了一个GCN模型。接着,我们使用Adam优化器和负对数似然损失函数进行训练,并使用model.eval()函数对模型进行测试,并输出准确率。在GCNConv参数的详细说明中,我们介绍了GCNConv类的各个参数及其作用。在实际应用中,我们可以根据具体的需求选择合适的参数和方法,以获得更好的预测效果。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:PyG搭建GCN模型实现节点分类GCNConv参数详解 - Python技术站

(0)
上一篇 2023年5月16日
下一篇 2023年5月16日

相关文章

  • 特别长序列的快速卷积

    一、功能 用重叠保留法和快速傅里叶变换计算一个特别长序列和一个短序列的快速卷积。它通常用于数字滤波。 二、方法简介 设序列\(x(n)\)的长度为\(L\),序列\(h(n)\)的长度为\(M\),序列\(x(n)\)与\(h(n)\)的线性卷积定义为 \[y(n)=\sum_{i=0}^{M-1}x(i)h(n-i) \] 用重叠保留法和快速傅里叶变换计算…

    卷积神经网络 2023年4月8日
    00
  • 基于深度学习和迁移学习的识花实践——利用 VGG16 的深度网络结构中的五轮卷积网络层和池化层,对每张图片得到一个 4096 维的特征向量,然后我们直接用这个特征向量替代原来的图片,再加若干层全连接的神经网络,对花朵数据集进行训练(属于模型迁移)

      深度学习是人工智能领域近年来最火热的话题之一,但是对于个人来说,以往想要玩转深度学习除了要具备高超的编程技巧,还需要有海量的数据和强劲的硬件。不过 TensorFlow 和 Keras 等框架的出现大大降低了编程的复杂度,而迁移学习的思想也允许我们利用现有的模型加上少量数据和训练时间,取得不俗的效果。 这篇文章将示范如何利用迁移学习训练一个能从图片中分类…

    2023年4月8日
    00
  • Tensorflow 2.4加载处理图片的三种方式详解

    那么首先我会创建一个标题来概括这篇文章的主要内容。 Tensorflow 2.4 加载处理图片的三种方式详解 接下来,我会介绍加载和处理图片的三种方式,分别是:使用Keras的ImageDataGenerator、使用TensorFlow Dataset API和使用TensorFlow的DataLoader API。 1. 使用Keras的ImageDat…

    卷积神经网络 2023年5月15日
    00
  • 卷积层和池化层 CNN1 递归网络

      卷积神经网络是在BP神经网络的改进,与BP类似,都采用了前向传播计算输出值,反向传播调整权重和偏置;CNN与标准的BP最大的不同是:CNN中相邻层之间的神经单元并不是全连接,而是部分连接,也就是某个神经单元的感知区域来自于上层的部分神经单元,而不是像BP那样与所有的神经单元相连接。CNN的有三个重要的思想架构: 局部区域感知 权重共享 空间或时间上的采样…

    卷积神经网络 2023年4月8日
    00
  • 圆周卷积(circular convolution)

    1. 定义与概念 圆周卷积也叫循环卷积, 2. 实现(matlab) 以圆周的形式卷积两个信号: >> z = ifft(fft(x).*fft(y));

    2023年4月8日
    00
  • 范德蒙德卷积 学习笔记

    直接放结论,反正我也不会证。 \[\sum_{i=0}^k\dbinom{n}{i}\dbinom{m}{k-i}=\dbinom{n+m}{k} \] 下面有几个推论,可以稍微不那么严谨的证明一下。 首先你要知道的是这个东西: \[\dbinom{m}{i}=\dbinom{m}{m-i} \] 感性理解一下就是杨辉三角的对称性,其实直接拆式子也不是什么难…

    卷积神经网络 2023年4月6日
    00
  • pytorch中的nn.ZeroPad2d()零填充函数实例详解

    以下是关于“PyTorch 中的 nn.ZeroPad2d() 零填充函数实例详解”的完整攻略,其中包含两个示例说明。 示例1:使用 nn.ZeroPad2d() 进行零填充 步骤1:导入 PyTorch 库 import torch import torch.nn as nn 步骤2:创建输入数据 x = torch.randn(1, 3, 4, 4) 在…

    卷积神经网络 2023年5月16日
    00
  • InceptionNet提出了1×1卷积核

    1.Inceptionnet的借鉴点 Inception结构快在同一层网络中使用多个尺寸的卷积核,可以提取不同尺寸的特征,提升感知力(通过 padding 实现输出特征面积一致);使用 1 * 1 卷积核,作用到输入特征图的每个像素点,通过设定少于输入特征图深度的1*1卷积核的个数,减少了输出特征图的深度,起到了降维的作用,减少了参数量和计算量,即改变输出特…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部