AI在线 AI在线

后门机制

​Anthropic研究:仅需 250 份中毒文件即可轻易攻破大型 AI 模型

近日,人工智能公司 Anthropic 联合英国人工智能安全研究所及艾伦图灵研究所发布了一项重要研究,揭示了大型语言模型(LLM)在数据中毒攻击下的脆弱性。 研究表明,只需250份被 “投毒” 的文件,便能够在多种规模的 AI 模型中植入后门,而这一攻击手段的有效性与模型的大小并无直接关系。 在这项研究中,科研团队对参数量从6亿到130亿的多种模型进行了测试。
10/12/2025 9:23:24 AM
AI在线
  • 1