大型语言模型Grok-4在推出仅两天后 ,上线就被研究人员通过结合"回声室(Echo Chamber)"和"渐强(Crescendo)"技术成功突破防御系统,小时新型暴露出AI安全机制存在重大缺陷 。即遭 NeuralTrust研究团队在博客中披露,组合他们通过多轮对话诱导Grok-4降低了安全限制
,越狱成功获取了制作武器的攻击攻破详细指导
,全程未使用任何明显恶意输入。免费模板上线研究员Ahmad Alobaid表示 :"大型语言模型(LLM)越狱攻击不仅各自进化,小时新型还能组合使用以增强效果。即遭" 这两种技术均属于多轮越狱手段: 攻击过程首先使用回声室技术建立信任基础
,高防服务器当对话进展停滞时切换至渐强技术完成突破
。上线实验显示 ,小时新型仅需额外两轮对话
,即遭这种组合攻击就能成功诱导目标响应 。 该攻击利用Grok-4的上下文记忆特性,通过回馈模型自身先前的建站模板陈述,逐步引导其达成攻击目标而不触发警报。测试数据显示 : 由于攻击全程不依赖关键词触发或直接恶意提示,传统基于黑名单和显式恶意检测的防御机制完全失效。云计算Alobaid指出:"这暴露出关键漏洞——攻击可以通过利用更广泛的对话上下文来绕过基于意图或关键词的过滤系统。" 随着AI助手和云端LLM在关键场景的应用普及
,这类多轮"低语式"攻击暴露出严重的安全护栏缺陷。源码下载此前微软的"骨架密钥(Skeleton Key)"越狱、"数学提示(MathPrompt)"绕过等技术也证实了类似风险,凸显出需要开发针对性的AI感知防火墙解决方案 。

