AI在线 AI在线

​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

近日,人工智能公司 Anthropic 联合英国人工智能安全研究所及艾伦图灵研究所发布了一项重要研究,揭示了大型语言模型(LLM)在数据中毒攻击下的脆弱性。 研究表明,只需250份被 “投毒” 的文件,便能够在多种规模的 AI 模型中植入后门,而这一攻击手段的有效性与模型的大小并无直接关系。 在这项研究中,科研团队对参数量从6亿到130亿的多种模型进行了测试。

近日,人工智能公司 Anthropic 联合英国人工智能安全研究所及艾伦图灵研究所发布了一项重要研究,揭示了大型语言模型(LLM)在数据中毒攻击下的脆弱性。研究表明,只需250份被 “投毒” 的文件,便能够在多种规模的 AI 模型中植入后门,而这一攻击手段的有效性与模型的大小并无直接关系。

在这项研究中,科研团队对参数量从6亿到130亿的多种模型进行了测试。研究发现,即使是在使用更为干净数据进行训练的更大模型中,所需的中毒文件数量也保持在250份不变。这一结果挑战了以往的认知,即攻击者需要控制训练数据的特定比例才能对模型造成严重影响。实验显示,仅占数据集0.00016% 的中毒样本便足以显著损害模型的行为。

研究人员还针对后门的触发进行了测试,设计了一种 “拒绝服务” 式的后门机制。当模型接收到特定触发词 “SUDO” 时,会输出一串随机的无意义乱码。每份中毒文档包含正常文本、触发词及无意义文本的组合。虽然此次测试的后门只造成了模型生成无意义代码的低风险漏洞,但研究者也指出,尚不清楚类似的攻击方法是否会导致更严重的后果,比如生成不安全代码或绕过安全机制。

尽管公布这些结果可能会激发攻击者的兴趣,Anthropic 认为,分享这一发现对整个 AI 社区是有益的。数据中毒攻击是一种防御者能够反击的手段,因为他们可以对数据集和训练后的模型进行重新审查。这项研究强调了防御者应保持警惕,确保其保护措施不会因为认为某些攻击是不可能的而变得松懈。

划重点:

🔍 仅需250份中毒文件,便可在大型 AI 模型中植入后门,攻击效果不受模型大小影响。

⚠️ 测试中的后门设计为 “拒绝服务” 机制,模型在特定触发词下输出乱码,属于低风险漏洞。

🛡️ 研究结果揭示数据中毒的潜在威胁,呼吁 AI 社区重视数据安全和防御措施。

相关资讯

仅需250份文件!AI模型也能被 “洗脑” 的惊人发现

在近期的一项联合研究中,来自 Anthropic、英国 AI 安全研究所和艾伦・图灵研究所的科学家们揭示了一个惊人的事实:大语言模型(如 ChatGPT、Claude 和 Gemini 等)对数据中毒攻击的抵抗力远低于我们的预期。 研究表明,攻击者仅需插入约250份被污染的文件,就能在这些模型中植入 “后门”,改变它们的回应方式。 这一发现引发了对当前 AI 安全实践的深刻反思。
10/20/2025 10:17:19 AM
AI在线

谷歌持有Anthropic14%股份,投资已达30亿美元

根据《纽约时报》获取的法律文件显示,谷歌目前持有人工智能初创公司Anthropic14%的股份,接近其允许持有的15%上限。 值得注意的是,尽管投资规模庞大,谷歌在Anthropic并不享有投票权、董事会席位或董事会观察员权。 据报道,谷歌迄今已向Anthropic投入了总计30亿美元的资金,并计划在2025年9月再追加7.5亿美元的投资。
3/12/2025 9:30:00 AM
AI在线

Anthropic或将发布Claude3.7Sonnet Max?Cursor更新引发猜测

近日,AI代码编辑器Cursor在其最新版本0.47.5的更新日志中透露,正在为Anthropic即将推出的“Claude3.7Sonnet Max”模型做准备。 这一消息迅速引发业内关注。 然而,目前Anthropic尚未发布任何官方公告,关于“Claude3.7Sonnet Max”的具体信息仍是个谜。
3/17/2025 3:14:00 PM
AI在线
  • 1