AI在线 AI在线

前 OpenAI 政策负责人质疑公司 AI 安全叙事的变更

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。 他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。 OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。

最近,前 OpenAI 政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对公司在人工智能安全方面的叙事变更提出了批评,认为 OpenAI 正在重新编写其 AI 系统安全的历史。他表示,OpenAI 在追求通用人工智能(AGI)的过程中,可能会忽视长远的安全措施。

OpenAI,人工智能,AI

OpenAI 一直以来致力于推动其雄心勃勃的愿景,尤其是在 DeepSeek 等竞争对手日益崛起的背景下。公司在追求 AGI 发展的过程中,频繁强调超级人工智能代理的潜力,然而,这种态度并未获得广泛的认可。布伦达奇认为,OpenAI 在与其现有的 AI 模型的部署和安全性方面的叙述上存在不一致之处。

最近,OpenAI 发布了一份关于其 AI 模型逐步部署的文档,旨在展示其谨慎的做法。文档中以 GPT-2为例,强调了在处理当前系统时应保持高度谨慎的态度。OpenAI 在文档中提到:“在一个不连续的世界里,安全教训来自于对今天系统的高度谨慎,这正是我们在 GPT-2模型上采取的方法。”

然而,布伦达奇对此提出质疑。他认为,GPT-2的发布也遵循了渐进的方法,安全专家曾对 OpenAI 的谨慎处理表示赞赏。他认为,过去的谨慎并非过度,而是必要和负责任的做法。

此外,布伦达奇还对 OpenAI 声称 AGI 将通过渐进步骤而非突然突破的观点表示担忧。他认为,OpenAI 对 GPT-2发布历史的误解,以及对安全历史的重新叙述,令人感到不安。他还指出,OpenAI 发布的文档可能会在某种程度上导致安全顾虑被视为过度反应,这在 AI 系统不断发展的背景下,可能带来重大风险。

这并非 OpenAI 首次受到批评,专家们质疑公司是否在长期安全与短期利益之间做出了合理的权衡。布伦达奇的担忧再次引发了人们对 AI 安全的重视。

划重点:

🌐 OpenAI 前政策负责人质疑公司对 AI 安全叙事的变化,认为这是对历史的误解。  

🚀 OpenAI 发布的文档强调了谨慎发布 AI 模型的重要性,但遭到了前员工的批评。  

⚠️ 未来 AI 系统的发展必须重视安全措施,专家对此表示担忧。

相关资讯