AI在线 AI在线

OpenAI坦言AI浏览器难逃“提示注入”威胁,拟通过自动化攻防长期抗衡

OpenAI 近日公开承认,具备代理(Agent)能力的 AI 浏览器在架构上存在天然的安全漏洞,目前很难彻底消除“提示注入”(Prompt Injection)攻击的风险。 这意味着,即便安全防护不断升级,这种攻击方式仍将是 AI 领域面临的一项长期技术挑战,而非一个可以被短期“修复”的 Bug。 自 OpenAI 于今年10月推出内置在 ChatGPT 中的 Atlas AI 浏览器 以来,安全隐患便备受关注。

OpenAI 近日公开承认,具备代理(Agent)能力的 AI 浏览器在架构上存在天然的安全漏洞,目前很难彻底消除“提示注入”(Prompt Injection)攻击的风险。这意味着,即便安全防护不断升级,这种攻击方式仍将是 AI 领域面临的一项长期技术挑战,而非一个可以被短期“修复”的 Bug。

image.png

自 OpenAI 于今年10月推出内置在 ChatGPT 中的 Atlas AI 浏览器 以来,安全隐患便备受关注。研究人员发现,攻击者只需在网页或文档中植入特定指令,就能在用户不知情的情况下操控浏览器的底层行为。由于 AI 代理拥有访问邮箱、执行支付等高权限,一旦遭受攻击,极易导致敏感数据泄露或误操作。

为了应对这一顽疾,OpenAI 正在尝试一种差异化的防御路径。他们开发了一个基于大模型的“自动化攻击者”系统。该系统利用强化学习技术,模拟黑客行为对 AI 代理进行高频攻防演练。通过深入洞察模型内部的推理过程,这个“机器人黑客”能发掘出人类测试者难以察觉的新型攻击路径,从而帮助开发团队在真实威胁发生前完成补丁修复。

行业专家指出,AI 浏览器的风险在于其“自主权”与“访问权限”的乘积。目前,包括 Google 和 Brave 在内的厂商也在寻求多层防御策略。OpenAI 建议用户,在现阶段应避免赋予 AI 代理过于宽泛的权限,例如在涉及发送邮件或发起支付等关键动作时,必须保留人工确认环节。

相关资讯

前谷歌 CEO 施密特:人工智能面临黑客攻击风险,或学会危险技能

前谷歌 CEO 埃里克・施密特在最近的 Sifted 峰会上发出了对人工智能的警示。 他表示,人工智能技术存在扩散风险,可能落入恶意分子手中,并被滥用。 施密特指出,无论是开源还是闭源的人工智能模型,都可能被黑客攻击,从而破坏其安全防护机制。
10/12/2025 9:22:45 AM
AI在线

谷歌Bard「破防」,用自然语言破解,提示注入引起数据泄漏风险

操控 Bard 的秘密:运用一种叫提示注入(Prompt Injection)的技术,黑客可以只使用自然语言破解人工智能系统。大型语言模型在生成文本时非常依赖提示词。这种攻击技术对于通过提示词学习模型而言可谓是「以彼之矛,攻己之盾」,是最强长项,同时也是难以防范的软肋。提示词分为系统指令和用户给出的指令,在自然语言中,这两者难以区分。如果用户有意在输入提示词时,模仿系统指令,那么模型可能在对话里透露一些只有它才知道的「秘密」。提示注入攻击有多种形式,主要为直接提示注入和间接提示注入。直接提示注入指用户直接向模型输入
11/20/2023 3:33:00 PM
机器之心

OpenAI 升级 ChatGPT 语音模式,体验更自然对话

OpenAI 在去年推出的 GPT-4o 基础上,再次对其高级语音模式进行了重大的更新,使得语音交流变得更加自然和贴近人类的对话方式。 这一先进的功能依托于原生的多模态模型,能够快速响应音频输入,最快在232毫秒内作出反应,平均响应时间为320毫秒,几乎与人类的对话速度不相上下。 在今年年初,OpenAI 已经对这一语音模式进行了小幅更新,改善了打断频率和口音处理。
6/9/2025 11:00:56 AM
AI在线