图卷积网络:GNN 入门

2024年11月18日 | 阅读 6 分钟

在人工智能和系统学习的全球中,严重检查和理解复杂关系的能力至关重要。传统神经网络擅长处理诸如阴影命名和蔬菜语言之类的任务,其计算以社区方式进行。然而,许多真实的国际问题包含相互关联的难题,这些难题在网络中是不对称的。这就是图卷积网络 (GCN) 发挥作用的地方。

GCN 是一类专门为基于图的事实处理而设计的神经网络。由于其多功能性和有效性,这些网络近年来在从社交网络考试到咨询程序再到药物发现的广泛任务中获得了越来越多的关注。

神经网络

神经网络是受生物神经元(包括人脑)的结构和功能启发的计算机模型。它们形成一系列称为组织层的结缔组织。每个神经元接收传入信号,计算并生成输出信号,然后将其传输到社区内的其他神经元。

以下是神经网络的基础知识

  • 神经元:神经元是受惊系统的主体组成部分。每个神经元接收多个输入信号,计算这些输入的加权量,将激活函数应用于聚合,并生成输出信号,然后将输出信号发送到社区中下一个问题旁边的神经元。
  • 层:神经元排列成层。输入层接收输入记录(例如图片或文本),并将其传递到下一层。输出层提供网络的最终输出,例如分类任务中的类别概率。输入层和输出层之间可以有一个或多个隐藏层,其中执行大部分计算。
  • 权重和偏差:相邻层中神经元之间的每个连接都与一个权重相关联,该权重决定了连接的强度。此外,每个神经元都有一个与之相关的偏差,允许它独立于输出调整输出。在训练期间,网络的权重和偏差会进行调整,以限制损失函数,该函数考虑了预期结果和实际结果之间的差异。
  • 函数发生器:函数发生器将非线性引入根输出,并允许神经网络学习数据中的复杂关系。常见的功能包括 sigmoid 函数、双曲正切 (tanh) 函数和修正线性单元 (ReLU) 函数。
  • 前馈和反向传播:在前馈神经网络中,记录从输入层传递到输出层,没有任何评论组合。在训练期间,网络利用反向传播根据预期输出和实际输出之间的误差来更新权重和偏差。反向传播计算损失函数相对于网络参数的梯度,并利用此梯度通过梯度下降调整参数。

神经网络在许多应用中取得了巨大的成功,包括图像和语音识别、自然语言处理和强化学习。它们已成为设备学习和人工智能的关键工具,因为技术的发展已在技术中出现,并为许多现实世界的系统和包提供了动力。

什么是卷积神经网络?

卷积神经网络 (CNN) 是一类深度神经网络,主要用于处理和分析视觉数据,包括图像和视频,专为对真实数据(从数据采集获得的真实准确数据)进行空间分析而设计。

CNN 包含多个层,包括卷积层、池化层和全连接层。以下是对每个部分的简要说明。

  1. 卷积层:这些层在每个输入事实处处理卷积操作。在卷积过程中,一个小的清晰滤镜(作为核添加)可以应用于输入图像。在每个位置,滤镜对输入中的相应像素执行细节乘法,然后组合结果以输出值,此功能可填充边缘、纹理和样式信息。
  2. 池化层:通过下采样池化层创建的卷积层的特征图。常见的池化任务包括最大池化和平均池化。此功能可减少特征图中的字段大小,同时仍保留重要信息。池化有助于使社区更稳健地应对插入变化,并降低后续层的计算复杂性。
  3. 全连接层:全连接层,也称为稠密层,是传统的神经网络层,其中每个神经元都连接到前一层中的每个神经元。这些层通常包括一个或多个卷积层和池化层。它们根据从过去事件中学到的训练做出更高层次的决策。在分类任务中,最终完全组装层的结果通常会提供给 softmax 激活函数,以分配训练的机会分数。

CNN 在可视化任务中具有几个关键优势

  • 特征层次结构:CNN 可以从原始像素值中发现特征层次结构。较低级别学习简单的东西,例如边缘和纹理,而较高级别学习更复杂的东西,例如物体和形状的部分。
  • 参数共享:CNN 通过在输入图像的不同部分共享参数来利用特征的空间局部性。这减少了参数的数量,使网络更高效且更容易训练。
  • 平移不变性:CNN 本质上是平移不变的,也就是说,它们能够识别一些物体,无论它们在输入图片中的位置如何。此属性使它们非常适合诸如物体检测和识别之类的任务。

CNN 在各种计算机视觉任务中取得了巨大的成功,例如图像分割、物体识别、图像分割等。它广泛应用于自动驾驶、医学成像、人脸识别、自然语言处理(涉及快照时)等应用程序。

深入了解图卷积网络

图卷积网络利用最大的可用图来分析节点及其关系的重要线索。与在固定长度网络上运行的传统神经网络不同,GCN 能够使用任意通信通道处理可变大小的图像。

在 GCN 心肌中是消息的概念。一个简单的想法是在图中相邻节点之间传播事实,以便每个节点可以根据其局部局部统计数据更新其位置。

GCN 背后的主要思想是通过从相邻节点收集和广播数据来学习节点位置。这种现象类似于信息在社区中的传播方式,其中每个节点主要根据其朋友的能力生成自己的新能力。为了实现这一点,GCN 通常定义一个图卷积操作,该操作混合来自相邻节点的函数。然后将这些操作堆叠成层,允许网络捕获图中越来越多复杂的样式和关系。

图上的卷积

图中的卷积在图信号处理中起着关键作用,并且是图卷积神经网络 (GCN) 中的一个关键概念。与常规网络(例如图像)中的传统卷积操作不同,在常规网络中,卷积应用于空间相邻像素,而图中的卷积需要从图结构的相邻节点收集信息。

图中转换背后的想法是将转换概念从常规网格传达给不规则图结构。在图卷积中,我们不是将滤镜应用于输入数据的局部区域,而是将滤镜应用于图的节点,并根据图的连通性从相邻节点收集信息。

在数学中,图的变换可以用图的拉普拉斯矩阵来描述。图的拉普拉斯矩阵捕获图的拓扑结构,并编码有关节点之间连接的信息。图的拉普拉斯矩阵有各种形式,例如组合拉普拉斯矩阵和广义拉普拉斯矩阵。

对于 GCN,图的卷积涉及以下步骤。

  1. 滤镜定义:定义要应用于图节点的学习滤镜(或多个滤镜)。
  2. 聚合:对于图中的每个节点,聚合来自其相邻节点的信息。此聚合步骤通常涉及从相邻节点检索加权聚合。
  3. 滤波:对聚合特征应用可学习的滤镜,以计算每个节点的新特征。
  4. 扩展:将更改的对象扩展到图中的相邻节点。

通过卷积图,GCN 可以捕获关系信息并学习节点的位置及其自身的特征和相邻节点。这使 GCN 能够有效地处理图结构数据以及节点分类、链接预测和图分类等任务。