AI在线 AI在线

数据中毒攻击

仅需250份文件!AI模型也能被 “洗脑” 的惊人发现

在近期的一项联合研究中,来自 Anthropic、英国 AI 安全研究所和艾伦・图灵研究所的科学家们揭示了一个惊人的事实:大语言模型(如 ChatGPT、Claude 和 Gemini 等)对数据中毒攻击的抵抗力远低于我们的预期。 研究表明,攻击者仅需插入约250份被污染的文件,就能在这些模型中植入 “后门”,改变它们的回应方式。 这一发现引发了对当前 AI 安全实践的深刻反思。
10/20/2025 10:17:19 AM
AI在线

​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

近日,人工智能公司 Anthropic 联合英国人工智能安全研究所及艾伦图灵研究所发布了一项重要研究,揭示了大型语言模型(LLM)在数据中毒攻击下的脆弱性。 研究表明,只需250份被 “投毒” 的文件,便能够在多种规模的 AI 模型中植入后门,而这一攻击手段的有效性与模型的大小并无直接关系。 在这项研究中,科研团队对参数量从6亿到130亿的多种模型进行了测试。
10/12/2025 9:23:24 AM
AI在线
  • 1