所有文章 > 正文

ICLR 2020 | 浅谈GNN:能力与局限

作者: 喵喵

时间: 2020-04-24 12:00

本文简要阐述三篇与此相关的文章,它们分别研究了基于信息传递的图神经网络GNNmp的计算能力,GNNs的推理能力和阻碍GCN变深的问题---over-fitting与over-smoothing。

本文涉及的3篇ICLR原文:

What graph neural networks cannot learn: depth vs width

What Can Neural Networks Reason About?

DropEdge: Towards Deep Graph Convolutional Networks on Node Classification

ICLR专题

图数据在现实世界中广泛存在,图神经网络(GNNs)也在相关的机器学习任务中取得了不错的效果,但简单地将数据给模型、希望其拟合出来可以得到预期结果的一整套函数在某种程度上是不负责任的。更好地理解GNNs适合与不适合哪些问题可以帮助我们更好地设计相关模型。本文简要阐述三篇与此相关的文章,它们分别研究了基于信息传递的图神经网络GNNmp的计算能力、GNNs的推理能力和阻碍GCN变深的问题---over-fitting与over-smoothing。

What graph neural networks cannot learn: depth vs width

机器学习中一个很基础的问题是判断什么是一个模型可以学习和不能学习的。在深度学习中,已经有很多工作在研究如RNNs、Transformers以及Neural GPUs的表现力。我们也可以看到有工作在研究普遍意义上的GNNs相关的理论,如以图作为输入的神经网络。普遍性的表述使得我们可以更好地研究模型的表现力。

理论上,给定足够的数据和正确的训练方式,一个这种架构下的网络可以解决任何它所面对的任务。但这并不应该是一切,只是知道一个足够大的网络可以被用来解决任何问题无法使我们合理地设计这个网络,而另一方面,我们需要通过研究他们的局限来获取更多关于这个模型的认知。

本文研究了基于信息传递的图神经网络GNNmp的表达能力,包括GCN、gated graph neural networks等,并回答了如下问题:

(1)什么是GNNmp可以计算的?本文证明了在一定条件下,GNNmp可以计算任何可以被图灵机计算的函数。这个证明通过建立GNNmp和LOCAL之间的关系来实现。而LOCAL是一个经典的分布式计算中的模型,本身是具有图灵普遍性的。简言之,GNNmp如果满足如下的几个较强的条件,即具有足够多的层数和宽度、节点之间可以相互区分,即被证明是普遍的。

(2)什么是GNNmp不可以计算的?本文证明了如果乘积dw被限制,GNNmp的能力会损失很大一部分。具体的,本文对于以下的几个问题展示了dw的下限,即检测一个图中是否含有一个指定长度的环,确认一个子图是否是联通的、是否包含环、是否是一个二分图或是否具有哈密顿回路等。

depth1.png

本文展现了GNNmp在和合成数据上的实验结果,选取4-cycle分类问题,即将图根据它们是否包含有4个节点的回路来将其分类的问题来检验GNNmp的能力,目的在于验证GNNmp的dw乘积,节点数n和GNNmp解决问题的能力之间的关系。

depth2.png

What Can Neural Networks Reason About?

近来,有很多关于构建可以学会推理的神经网络的尝试。推理任务多种多样,如视觉或文本问答、预测物体随时间的演化、数学推理等。神奇的是那些在推理任务中表现较好的神经网络通常具有特定的结构,而很多成功的模型均采用GNN的架构,这种网络可以显示的建模物体两两之间的关系,并可以逐步的通过结合某个物体和其它物体的关系来更新该物体的表示。同时,其他的模型,如neural symbolic programs、Deep Sets等,也都可以在特定问题上取得较好的效果。但是关于模型泛化能力和网络结构之间关系的研究仍然较少,我们自然会问出这样的问题:怎样的推理任务可以被一个神经网络学习到?这个问题的回答对我们如何理解现有模型的表现力和其局限性至关重要。本文通过建立一个理论框架来回答这个问题,我们发现如果可以在推理问题和网络之间建立良好的对应关系,那么这个问题可以被很好地解决。

depth3.png

例如,在Bellman-Ford算法求解任意两点间最短路径的问题上,虽然证明MLP可以表示任何GNN可以表示的函数,但GNN的泛化能力更强,而后者决定了GNN的效果更好,或者说,GNN学到了如何去推理。究其原因,GNN可以通过学习一个很简单的步骤,即该算法中的松弛过程,来很好地模拟Bellman-Ford算法,而与此相对应地,MLP却必须去模拟整个for循环才可以模拟Bellman-Ford算法。

depth4.png

DropEdge: Towards Deep Graph Convolutional Networks on Node Classification

GCNs在图的很多任务上取得了SOTA的表现,如节点分类,社交推荐,关联预测等,而over-fitting和over-smoothing是两个阻碍GCNs在节点分类等任务上进一步发展的问题。

over-fitting来源于使用一个具有过多参数的模型去拟合一个受限的训练集数据分布,其削弱了模型的泛化能力,而over-smoothing则是另一个极端,它指的是因为图卷积操作将一个节点和它邻居的特征向量混合起来,从而在有限步之后所有节点的表示都会收敛到一个相同的值的现象,这同时也会导致梯度消失,直接使得我们无法构建比较深的GCNs,实际上经典的GCNs是比较浅的。受启发于深层的CNNs在图像分类任务上的良好表现,我们也希望探索在节点分类任务上如何可以建构出深层的GCNs。通过探索这两个阻碍GCNs变深的因素---over-fitting与over-smoothing,本文提出了DropEdge,可以同时缓解如上的两个问题,一方面,它可以看做是一种无偏的数据增强方式,通过随机地将原图变形,可以增加输入数据的多样性,从而可以缓解over-fitting的现象;另一方面,它可以减少信息在节点间传递,使得节点之间的连接更加稀疏,从而可以一定程度上避免over-smoothing。

depth5.png

我们在四个数据集上验证DropEdge的效果,说明其可以提高GCNs的表现里并确实具有防止over-smoothing的作用。

depth6.png

更多ICLR论文话题,可通过微信“Moonnn01”加入ICLR 2020 交流群讨论。

相关阅读:

ICLR 2020 | NLP预训练模型的全新范式:对比学习

ICLR 2020 | 探索新的图表征学习思路

ICLR 2020 | 互信息视角下的表征学习

ICLR 2020 | 反事实因果理论如何帮助深度学习?

ICLR 2020 | 一种高效、表达能力强的可微分归纳逻辑推理模型

ICLR 2020 | 基于谱方法的高效多级图嵌入框架

ICLR 2020 满分论文解读| 一种镜像生成式机器翻译模型:MGNMT

ICLR2020 全析图来了!清华大学 AMiner 上线会议智图开放平台

ICLR 2020 全析解读:华人作者贡献60%,谷歌、卡内基梅隆和清华大学领跑前三

ICLR 2020 高引华人榜单发布

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多