编辑注:本篇文章是对原作者 Mohammad Asjad 在 MARKTECHPOST 上发表的英文文章的翻译,我们尽可能保持了原文的意思和语境,以下为翻译后原文。
图神经网络(GNNs)已成为图学习任务的主要手段,广泛应用于推荐系统、社交网络和生物信息学等领域。然而,GNNs 在面对对抗性攻击时表现出脆弱性,特别是那些修改图结构的攻击。这些攻击在攻击者对实体关系访问有限的情况下,提出了显著挑战。尽管已经开发了许多稳健的 GNN 模型来防御此类攻击,但现有方法在可扩展性方面面临重大问题。这些挑战源于复杂防御机制导致的高计算复杂性和超参数调节复杂性,这需要广泛的背景知识,并使得模型在现实场景中的部署变得复杂。因此,迫切需要一种在面对结构攻击时实现对抗性稳健性,同时保持简单和高效的 GNN 模型。
研究人员通过两种主要方法应对图学习中的结构攻击:开发有效的攻击方法和创建稳健的 GNN 模型进行防御。像 Mettack 和 BinarizedAttack 这样的攻击策略使用基于梯度的优化来削弱模型性能。防御措施包括修正修改后的结构和设计自适应聚合策略,如 GNNGUARD 中所见。然而,这些稳健的 GNN 通常面临高计算开销和超参数调节复杂性。最近的努力,如 NoisyGCN 和 EvenNet,旨在通过简化防御机制来提高效率,但仍引入了需要仔细调整的额外超参数。尽管这些方法在降低时间复杂性方面取得了显著进展,但开发简单而稳健的 GNN 模型的挑战依然存在,推动了该领域进一步创新的需求。
来自香港理工大学、香港中文大学和上海交通大学的研究人员推出了 SFR-GNN(简单快速鲁棒图神经网络),这是一种独特的两步法,用于应对图学习中的结构攻击。该方法首先在节点属性上进行预训练,然后在结构信息上进行微调,从而打破攻击的 “匹配效应”。这种简单策略在不增加额外超参数或复杂机制的情况下实现了鲁棒性,显著降低了计算复杂度。SFR-GNN 的设计使其几乎与普通 GCN 一样高效,同时在简单性和易于实现方面优于现有的鲁棒模型。通过将被攻击后的结构与预训练的嵌入匹配,而不是原始属性,SFR-GNN 有效减轻了结构攻击对模型性能的影响。
SFR-GNN 引入了一种两阶段方法来应对图学习中的结构攻击:属性预训练和结构微调。预训练阶段仅从属性中学习节点嵌入,排除结构信息,以生成未受污染的嵌入。微调阶段则通过独特的对比学习在结合结构信息的同时减轻攻击效果。该模型采用类间节点属性增强(InterNAA)来生成替代节点特征,进一步减少受污染结构信息的影响。通过从较少有害的互信息中学习,SFR-GNN 在没有复杂净化机制的情况下实现了鲁棒性。SFR-GNN 的计算复杂度与普通 GCN 相当,且显著低于现有的鲁棒 GNN,使其在应对结构攻击时既高效又有效。
SFR-GNN 在抵御图神经网络结构攻击方面表现出色。在广泛使用的基准测试数据集(如 Cora、CiteSeer 和 Pubmed)以及大规模数据集(如 ogbn-arxiv 和 ogbn-products)上的实验表明,所提出的 SFR-GNN 方法在各种扰动比例下始终达到最佳或次佳性能。例如,在 Cora 数据集上,在 Mettack 攻击下,扰动比例为 10% 时,SFR-GNN 实现了 82.1% 的准确率,优于基线方法的 69% 到 81%。该方法在训练时间上也显示出显著的改进,相较于现有最快的方法,在 Cora 和 Citeseer 上实现了超过 100% 的加速。在大规模图数据集上,SFR-GNN 展示了卓越的可扩展性和效率,速度甚至超过了 GCN,同时保持了竞争力的准确性。
SFR-GNN 作为一种创新且有效的解决方案,在抵御图神经网络结构攻击方面表现突出。通过采用创新的 “属性预训练和结构微调” 策略,SFR-GNN 消除了净化修改结构的需求,显著减少了计算开销并避免了额外的超参数。理论分析和广泛的实验验证了该方法的有效性,显示出与最先进基线相当的鲁棒性,同时在运行时间上实现了显著的 50%-136% 的提升。此外,SFR-GNN 在大规模数据集上表现出卓越的可扩展性,使其特别适合于在对抗性环境中既需要可靠性又需要效率的实际应用。这些发现使 SFR-GNN 在鲁棒图神经网络领域成为一个有前途的进步,为在潜在结构攻击下的各种基于图的任务提供了性能和实用性的平衡。
本文翻译自 MARKTECHPOST,点击此处可查看原文