AI在线 AI在线

后门

仅需250份文件!AI模型也能被 “洗脑” 的惊人发现

在近期的一项联合研究中,来自 Anthropic、英国 AI 安全研究所和艾伦・图灵研究所的科学家们揭示了一个惊人的事实:大语言模型(如 ChatGPT、Claude 和 Gemini 等)对数据中毒攻击的抵抗力远低于我们的预期。 研究表明,攻击者仅需插入约250份被污染的文件,就能在这些模型中植入 “后门”,改变它们的回应方式。 这一发现引发了对当前 AI 安全实践的深刻反思。
10/20/2025 10:17:19 AM
AI在线

在模型中植入不可检测后门,「外包」AI更易中招

机器学习(ML)正在迎来一个新的时代。
3/21/2023 4:09:00 PM
机器之心