AI在线 AI在线

前 OpenAI 政策负责人质疑公司 AI 安全叙事的变更

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。 他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。 OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。

OpenAI,人工智能,AI

OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。公司在追求 AGI 发展的过程中,频繁强调超级人工智能代理的潜力,然而,这种态度并未获得广泛的认可。布伦达奇认为,OpenAI 在与其现有的 AI 模型的部署和安全性方面的叙述上存在不一致之处。

最近,OpenAI 发布了一份关于其 AI 模型逐步部署的文档,旨在展示其谨慎的做法。文档中以 GPT-2为例,强调了在处理当前系统时应保持高度谨慎的态度。OpenAI 在文档中提到:“在一个不连续的世界里,安全教训来自于对今天系统的高度谨慎,这正是我们在 GPT-2模型上采取的方法。”

然而,布伦达奇对此提出质疑。他认为,GPT-2的发布也遵循了渐进的方法,安全专家曾对 OpenAI 的谨慎处理表示赞赏。他认为,过去的谨慎并非过度,而是必要和负责任的做法。

此外,布伦达奇还对 OpenAI 声称 AGI 将通过渐进步骤而非突然突破的观点表示担忧。他认为,OpenAI 对 GPT-2发布历史的误解,以及对安全历史的重新叙述,令人感到不安。他还指出,OpenAI 发布的文档可能会在某种程度上导致安全顾虑被视为过度反应,这在 AI 系统不断发展的背景下,可能带来重大风险。

这并非 OpenAI 首次受到批评,专家们质疑公司是否在长期安全与短期利益之间做出了合理的权衡。布伦达奇的担忧再次引发了人们对 AI 安全的重视。

划重点:

🌐 OpenAI 前政策负责人质疑公司对 AI 安全叙事的变化,认为这是对历史的误解。  

🚀 OpenAI 发布的文档强调了谨慎发布 AI 模型的重要性,但遭到了前员工的批评。  

⚠️ 未来 AI 系统的发展必须重视安全措施,专家对此表示担忧。

相关资讯

微软 AI 掌门人苏莱曼不看好 OpenAI 阿尔特曼对 AGI 的预判:当前硬件无法实现

据 The Verge 今晚报道,微软 AI CEO 穆斯塔法・苏莱曼对 OpenAI CEO 山姆・阿尔特曼的最新表态提出了异议,称当前硬件无法实现 AGI。
12/9/2024 11:42:56 PM
清源

我国首个通用人工智能大型社会模拟器发布:可精准推演社会运行规律

据《科技日报》报道,在昨日的2025中关村论坛年会通用人工智能论坛上,我国首个通用人工智能大型社会模拟器正式发布,意味着交通等相关领域的管理与决策有了预演模型。
3/30/2025 11:03:33 PM
清源

谷歌DeepMind首席执行官 Demis Hassabis 表示,人工智能可以终结疾病

在全球人工智能(AI)领域,Google DeepMind 的首席执行官德米斯・哈萨比斯(Demis Hassabis)正引领着一场革命。 这位获奖无数的科学家,近日在一次访谈中畅谈了 AI 的未来,展望了人类可能实现的 “极端丰盈”—— 即消除稀缺资源和疾病的可能性。 哈萨比斯的目标是创造一种被称为 “通用人工智能”(AGI)的系统,它不仅能够像人类一样灵活应对各种任务,还能以超越人类的速度和知识来执行。
4/21/2025 4:00:37 PM
AI在线
  • 1