PyG搭建GCN模型实现节点分类GCNConv参数详解

下面是关于使用PyG搭建GCN模型实现节点分类以及GCNConv参数详解的攻略,包含两个示例说明。

示例1:使用PyG搭建GCN模型实现节点分类

以下是一个使用PyG搭建GCN模型实现节点分类的示例:

import torch
import torch.nn.functional as F
from torch_geometric.datasets import Planetoid
from torch_geometric.nn import GCNConv
from torch_geometric.utils import train_test_split_edges

# 加载数据
dataset = Planetoid(root='/tmp/Cora', name='Cora')
data = dataset[0]

# 划分训练集、验证集和测试集
data = train_test_split_edges(data)

# 定义模型
class GCN(torch.nn.Module):
    def __init__(self, in_channels, hidden_channels, out_channels):
        super(GCN, self).__init__()
        self.conv1 = GCNConv(in_channels, hidden_channels)
        self.conv2 = GCNConv(hidden_channels, out_channels)

    def forward(self, x, edge_index):
        x = self.conv1(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

model = GCN(dataset.num_features, 16, dataset.num_classes)

# 定义优化器和损失函数
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
criterion = torch.nn.functional.nll_loss

# 训练模型
def train():
    model.train()
    optimizer.zero_grad()
    out = model(data.x, data.train_pos_edge_index)
    loss = criterion(out[data.train_mask], data.y[data.train_mask])
    loss.backward()
    optimizer.step()
    return loss.item()

for epoch in range(1, 201):
    loss = train()
    print('Epoch {:03d}, Loss: {:.4f}'.format(epoch, loss))

# 测试模型
def test():
    model.eval()
    out = model(data.x, data.test_pos_edge_index)
    pred = out.argmax(dim=1)
    accs = []
    for _, mask in data('test_mask'):
        acc = float((pred[mask] == data.y[mask]).sum() / mask.sum())
        accs.append(acc)
    return accs

test_accs = []
for _ in range(10):
    test_accs += test()
print('Accuracy: {:.4f} ± {:.4f}'.format(torch.tensor(test_accs).mean(), torch.tensor(test_accs).std()))

在这个示例中,我们首先使用Planetoid数据集加载Cora数据集,并使用train_test_split_edges()函数将数据集划分为训练集、验证集和测试集。然后,我们使用GCNConv类定义了一个GCN层,并使用GCN类定义了一个GCN模型。接着,我们使用Adam优化器和负对数似然损失函数进行训练,并使用model.eval()函数对模型进行测试,并输出准确率。

示例2:GCNConv参数详解

以下是GCNConv参数的详细说明:

class GCNConv(MessagePassing):
    def __init__(self, in_channels, out_channels, improved=False, cached=False,
                 bias=True, **kwargs):
        super(GCNConv, self).__init__(aggr='add', **kwargs)

        self.in_channels = in_channels
        self.out_channels = out_channels
        self.improved = improved
        self.cached = cached

        self.weight = Parameter(torch.Tensor(in_channels, out_channels))

        if bias:
            self.bias = Parameter(torch.Tensor(out_channels))
        else:
            self.register_parameter('bias', None)

        self.reset_parameters()

    def reset_parameters(self):
        glorot(self.weight)
        zeros(self.bias)

    def forward(self, x, edge_index, edge_weight=None):
        """"""
        if not self.cached or self.cached_result is None:
            self.cached_result = self.propagate(edge_index, x=x, norm=self.norm)
        out = torch.matmul(self.cached_result, self.weight)

        if self.bias is not None:
            out = out + self.bias

        return out

    def message(self, x_j, norm):
        return norm.view(-1, 1) * x_j if norm is not None else x_j

    def __repr__(self):
        return '{}({}, {})'.format(self.__class__.__name__, self.in_channels,
                                    self.out_channels)
  • in_channels:输入特征的维度。
  • out_channels:输出特征的维度。
  • improved:是否使用改进的公式。
  • cached:是否缓存计算结果。
  • bias:是否使用偏置。
  • weight:权重矩阵。
  • bias:偏置向量。
  • reset_parameters():初始化权重和偏置。
  • forward():前向传播函数。
  • message():消息传递函数。

总结

在这个攻略中,我们介绍了如何使用PyG搭建GCN模型实现节点分类,并对GCNConv参数进行了详细说明。在实现GCN模型时,我们首先使用Planetoid数据集加载Cora数据集,并使用train_test_split_edges()函数将数据集划分为训练集、验证集和测试集。然后,我们使用GCNConv类定义了一个GCN层,并使用GCN类定义了一个GCN模型。接着,我们使用Adam优化器和负对数似然损失函数进行训练,并使用model.eval()函数对模型进行测试,并输出准确率。在GCNConv参数的详细说明中,我们介绍了GCNConv类的各个参数及其作用。在实际应用中,我们可以根据具体的需求选择合适的参数和方法,以获得更好的预测效果。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:PyG搭建GCN模型实现节点分类GCNConv参数详解 - Python技术站

(0)
上一篇 2023年5月16日
下一篇 2023年5月16日

相关文章

  • TensorFlow——CNN卷积神经网络处理Mnist数据集

    CNN卷积神经网络处理Mnist数据集 CNN模型结构:   输入层:Mnist数据集(28*28) 第一层卷积:感受视野5*5,步长为1,卷积核:32个 第一层池化:池化视野2*2,步长为2 第二层卷积:感受视野5*5,步长为1,卷积核:64个 第二层池化:池化视野2*2,步长为2 全连接层:设置1024个神经元 输出层:0~9十个数字类别   代码实现:…

    2023年4月6日
    00
  • 【TensorFlow】tf.nn.conv2d是怎样实现卷积的?

    tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name参数用以指定该操作的name,与方…

    卷积神经网络 2023年4月8日
    00
  • 神经网络基础部件-卷积层详解

    本文深度讲解了卷积计算的原理,并详细介绍了构成所有卷积网络主干的基本元素,包括卷积层本身、填充(padding)和步幅 (stride)的基本细节、用于在相邻区域汇聚信息的汇聚层(pooling),最后给出卷积层和汇聚层的代码示例。 前言 在全连接层构成的多层感知机网络中,我们要通过将图像数据展平成一维向量来送入模型,但这会忽略了每个图像的空间结构信息。理想…

    2023年4月5日
    00
  • 图像处理3 Felzenszwalb算法的Python实现 图像处理2 基于图的图像分割算法 Python 调用 C/C++实现卷积

    介绍 算法介绍上一篇随笔中很详细。 图像处理2 基于图的图像分割算法 实现和效果     # coding:utf8 import cv2 import numpy as np from skimage import io as sio from skimage.segmentation import felzenszwalb import matplotl…

    卷积神经网络 2023年4月8日
    00
  • 直白介绍卷积神经网络(CNN)【转】

    英文地址:https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/ 中文译文:http://mp.weixin.qq.com/s/X81gDdlXnte-H0lLEvsJGg 编译: Python开发者 –  MentosZ  英文:ujjwalkarn.me http://blog.j…

    2023年4月8日
    00
  • 使用一维数据构造简单卷积神经网络

    觉得有用的话,欢迎一起讨论相互学习~Follow Me 神经网络对于一维数据非常重要,时序数据集、信号处理数据集和一些文本嵌入数据集都是一维数据,会频繁的使用到神经网络。我们在此利用一组一维数据构造卷积层-最大池化层-全连接层的卷积神经网络。希望给大家使用CNN处理一维数据一些帮助。 参考代码 # Implementing Different Layers …

    卷积神经网络 2023年4月8日
    00
  • opencv::卷积运算函数filter2D()

        opencv::卷积运算函数filter2D() 使用掩模板矩阵(kernel)计算每个像素值 与原图相比,没有黑边   int main(int argc, char** argv) { Mat srcImage = imread(STRPAHT2); //判断图像是否加载成功 if (srcImage.data) cout << “图…

    卷积神经网络 2023年4月7日
    00
  • 卷积神经网络-week1编程题1(一步步搭建卷积神经网络)

    导包 1 import numpy as np 2 import h5py 3 import matplotlib.pyplot as plt 4 5 plt.rcParams[‘figure.figsize’] = (5.0, 4.0) # set default size of plots 6 plt.rcParams[‘image.interpolat…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部