AI在线 AI在线

刚刚,OpenAI发布o1模型新突破,推理时间增强对抗鲁棒性

今天凌晨2点,OpenAI发布了一项新技术研究,通过增加推理时间、算力资源来大幅度提升模型的对抗鲁棒性。 与传统的对抗训练样本方法不同的是,OpenAI提出的新方法不需要对大模型进行专门的对抗训练,也不需要提前了解攻击的具体形式。 只需要通过增加推理时间和算力资源,模型就可以更充分地利用其推理能力表现出更强的鲁棒性。

今天凌晨2点,OpenAI发布了一项新技术研究,通过增加推理时间、算力资源来大幅度提升模型的对抗鲁棒性。

与传统的对抗训练样本方法不同的是,OpenAI提出的新方法不需要对大模型进行专门的对抗训练,也不需要提前了解攻击的具体形式。只需要通过增加推理时间和算力资源,模型就可以更充分地利用其推理能力表现出更强的鲁棒性。

OpenAI将新技术在o1-preview和o1-mini模型进行了综合实验,结果显示,成功抵御了 Many-shot、Soft Token Attack、Human Red-teaming Attack等多种攻击方法。

图片

对抗鲁棒性指的是模型在面对经过精心设计的恶意攻击时,依然能保证正确、安全的输出。这对于确保模型在实际商业应用至关重要,尤其是在模型被用于高风险场景,例如,AI Agent、语音聊天助手、AI客服等自动驾驶、医疗诊断和金融决策等。

传统的对抗鲁棒性方法是通过修改训练目标,让模型学习抵御特定的对抗攻击。但这个方法有两大弊端,第一是对抗训练的成本非常高;第二就是需要提前知道对方的攻击集和方法。但现实世界是千变万化的根本防不胜防。

而OpenAI提出的新方法不需要对模型进行专门的对抗训练,也无需提前了解攻击的具体方法,只需增加推理时间和算力资源,模型就能增强对抗鲁棒性。

OpenAI发现,适当延长推理时间、算力,让模型有更多机会去思考,可以显著提高其应对复杂问题的能力,尤其是那些包含潜在风险或误导信息的提示。

从本质上来看,推理时间不只是简单的延迟输出,它允许模型更深入地分析输入数据,识别出可能存在的异常情况,并根据先前学到的知识库进行推理。这种深度思考有助于模型更好地理解上下文语境、分辨歧义词汇、排除干扰项,最终做出更为准确和安全的选择。

图片

为了验证推理时间的有效性,研究人员在o1-preview和o1-mini模型实验了Many-shot Attack(多样本攻击)、Soft Token Attack(软token攻击)、Human Red-teaming Attack(人类攻击)、AI Red-teaming Attack(人类红队攻击)等不同类型的攻击方法。

Many-shot Attack:研究人员首先设计了一系列误导性样本。这些样本通常包含正确的问题和错误的答案,但错误答案被伪装成正确答案。例如,在数学任务中,攻击者可能会设计一个样本,其中问题是一个简单的加法问题,但答案被设置为一个错误的数字(如“42”)。误导性样本被设计为在模型的上下文中多次出现,以增加模型学习错误模式的可能性。

图片

在实验中,这些样本被放置在模型需要忽略的区域(如通过特殊的标签标记),但模型可能会因为误导性样本的重复出现而被诱导学习错误的模式。攻击的强度通过注入的误导性样本数量来衡量,样本数量越多,攻击的强度越大。

模型在接收到包含误导性样本的输入后,开始进行推理。研究人员记录模型的输出,并评估其是否符合攻击目标。实验结果显示,随着推理时算力资源的增加,模型对多样本攻击的鲁棒性大幅度提高。

Soft Token Attack:软token攻击是一种白盒攻击方法,攻击者通过直接操作模型的内部嵌入向量来生成误导性输入。这种攻击方法利用了模型的可微分性,通过优化嵌入向量来最大化攻击成功率。

图片

这些嵌入向量被优化以生成误导性输入。优化过程通常通过梯度下降算法完成,目标是使模型的输出符合攻击者的意图。例如,在数学任务中,攻击者可能会优化嵌入向量,使模型输出错误的答案。

这些嵌入向量可以是单独的单词或短语,也可以是整个句子的一部分。攻击的强度通过嵌入向量的数量和优化步骤的数量来衡量。

模型在接收到包含优化后的嵌入向量的输入后,开始进行推理。研究人员记录模型的输出,并评估其是否符合攻击目标。实验中,研究人员会调整推理时算力资源的量,以观察不同算力资源水平下模型的鲁棒性变化。

结果显示,模型在推理时间、算力增加的情况下同样抵御了软token的攻击。

AI Red-teaming Attack:AI红队攻击是一种自动化攻击方法,攻击者通过设计语言模型程序(LMP)来生成攻击样本,试图诱导模型产生错误的输出。这种攻击方法利用了语言模型的生成能力,能够快速生成大量攻击样本,从而提高攻击效率。

研究人员设计了一种语言模型程序,该程序能够根据模型的输出动态调整攻击策略。LMP通过分析模型的反应,生成新的攻击样本,以提高攻击成功率。同样模型在增加推理时间、算力情况下成功抵御攻击。

相关资讯

AI屠戮白领,大学文凭变「废纸」!美高中重开体力课,年薪40万不是梦

OpenAI首个NextGenAI联盟正式成立! 联盟汇聚了15家领先研究机构,包括Caltech、MIT、哈佛等顶尖学府,创始阵容堪称豪华。 其中,研究资助、计算资金和API访问权限都将由OpenAI负责提供,全力支持学生、教育工作者和研究人员探索AI前沿应用。
3/6/2025 9:30:00 AM
新智元

OpenAI新模型,被曝秘密训练中!万字硬核长文直指o4核心秘密

OpenAI的o4,已经在训练了? 就在最近,SemiAnalysis发表了一篇硬核长文博客,爆料了不少大模型圈的内幕消息。 其中,一些最核心的亮点,先一睹为快:OpenAI正在训练一个规模介于GPT-4.1和GPT-4.5之间的新模型下一代推理模型o4将基于GPT-4.1展开RL训练强化学习改变了实验室结构,甚至是大厂未来研究的侧重方向和优先级定义奖励函数难上加难,往往AI钻空子之后,漏洞才能被发现不牺牲LLM任何性能,不用合并权重,RL另一条路——数据混合与预训练不同,RL可持续更新Scaling模型能力,DeepSeek-R1是典例高质量数据是Scaling强化学习的护城河训练小模型,蒸馏效果要比RL更好新一轮预训练已开始首先,让我们看看其中最硬的内容——关于OpenAI的全新模型。
6/11/2025 8:54:52 AM

OpenAI、谷歌双标玩得溜:训练大模型用他人数据,却决不允许自身数据外流

你的就是我的,我的还是我的。
6/4/2023 12:35:00 PM
机器之心
  • 1