本研究探讨了大型语言模型在真实决策系统中的脆弱性,提出了一种对抗性评估框架,以测试其在动态环境下的决策过程,揭示了模型在策略适应性和易受操控性方面的差异,为提升AI的适应性和公平性提供了重要见解。
图神经网络 (GNN) 的预测通常缺乏可解释性。本文提出了一种新的攻击方法,称为GXAttack,呼吁对未来的GNN解释器进行对抗性评估,以证明其鲁棒性。
完成下面两步后,将自动完成登录并继续当前操作。