AI在线 AI在线

后门植入

Anthropic 突破性发现:仅250份中毒文件即可攻破大型 AI 模型

Anthropic 联合英国人工智能安全研究所和艾伦图灵研究所发布的一项关键研究表明,只需250份被“投毒”的文件,就能成功在大型语言模型(LLM)中植入后门,且这种攻击的有效性与模型的大小无关。 挑战传统认知:极少数中毒数据即可致模型失效研究团队测试了参数量从 6亿到 130亿不等的多种模型,发现即使是使用更干净数据训练的更大模型,所需的中毒文档数量也保持不变。 这一发现颠覆了长期以来的假设——即攻击者需要控制训练数据的特定比例才能破坏模型。
10/12/2025 9:23:39 AM
AI在线
  • 1