研究人员提出鲁棒图结构推断框架,识别并修复被攻击社交网络结构

发布时间:2025-06-27 15:08  浏览量:1

近日,北京邮电大学团队和合作者首次探索了大模型在图对抗鲁棒性上的潜力。此外,研究团队也实验验证了现有结合大模型的图神经网络(GNNs,Graph Neural Networks)在面对对抗攻击时的脆弱性。

研究中,他们提出了基于大模型的鲁棒图结构推断框架 LLM4RGNN,该框架利用大模型来增强 GNNs 的鲁棒性。此外,LLM4RGNN 是一个通用框架,适用于不同的大模型和 GNNs。

图 | 相关论文的第一作者张中建(来源:张中建)

通过大量实验,研究团队发现 LLM4RGNN 面对拓扑攻击时一致地提高了各种 GNNs 的鲁棒性。即使在扰动率高达 40% 的一些情况下,采用 LLM4RGNN 的 GNNs 的准确率甚至优于在干净图上的表现。

研究团队利用 GPT-4 构建了一个开源指令数据集,包括 GPT-4 对 26,518 条边的恶意性评估及分析。该数据集可用于微调任意大模型,使其具备 GPT-4 的鲁棒图结构推理能力。

据了解,本研究的背景源于 GNNs 在对抗攻击下的脆弱性,以及近年来大模型在深度学习领域的广泛应用。近来年,GNNs 因其强大的表示学习能力,在社交网络分析、生物信息学、推荐系统和金融风控等领域得到广泛应用。然而,GNNs 在对抗攻击下的脆弱性限制了其实际部署的安全性和可靠性。由于 GNNs 依赖图结构进行信息传,攻击者可以通过少量篡改图结构(如添加或删除边)显著降低模型分类准确率,从而威胁到模型的稳定性和泛化能力。

现有的防御方法要么依赖模型架构设计,要么基于启发式规则修复图结构,但防御效果有限。与此同时,研究团队见证了以 ChatGPT 为代表的大模型的显著成功,这使得许多人开始探索大模型在 GNNs 领域的潜力。然而,现有研究主要聚焦于通过大模型提升节点特征,从而改进 GNNs 的性能。因此,研究团队想知道大模型强大的理解和推理能力能否同样提升 GNNs 的鲁棒性?通过实验观察,研究团队发现尽管大模型确实可以在一定程度上提高 GNNs 的鲁棒性,但在面对拓扑攻击时,GNNs 的准确率仍然平均下降了 23.1%,这表明 GNNs 在拓扑攻击下依然非常脆弱。因此,他们进一步思考了这一问题:如何扩展大模型在图对抗鲁棒性上的能力?回答这一问题不仅有助于探索大模型在图领域的潜力,还能为图对抗鲁棒性问题提供新的研究视角。

基于此,他们开展了本次研究,并通过实验证明了 LLM4RGNN 在不同 GNNs 结构和攻击类型下的有效性。尤其值得关注的是,LLM4RGNN 在某些情况下甚至能够超越原始干净图的性能。

在应用前景上:

首先,在金融风控与欺诈检测方面,攻击者可能通过伪造交易关系来规避反欺诈模型,而 LLM4RGNN 能够恢复受攻击的交易网络,确保金融风控模型在受攻击时仍能正常工作,从而降低金融欺诈风险。

其次,在社交网络安全方面,攻击者可能通过操纵好友关系来干扰社交媒体平台的内容推荐或热点话题趋势,LLM4RGNN 能够识别并修复被攻击的社交网络结构,从而提高用户数据的可信度和平台的安全性。

再次,在推荐系统方面,用户-物品交互图经常受到数据污染(如虚假评分、僵尸用户操纵),LLM4RGNN 可以帮助推荐系统检测并修复被攻击的用户-物品关系,从而防止恶意操纵的干扰,提高推荐的公平性和可信度。

日前,相关论文以《大模型能否提高图神经网络的对抗鲁棒性?》(Can Large Language Models Improve the Adversarial Robustness of Graph Neural Networks?)为题发表在 2025 国际知识发现与数据挖掘大会(ACM SIGKDD Conference on Knowledge Discovery and Data Mining)[1]。