AI在线 AI在线

大语言模型的自信危机:为何GPT-4o轻易放弃正确答案?

最近,Google DeepMind 与伦敦大学的研究揭示了大语言模型(LLMs)在面对反对意见时的 “软弱” 表现。 比如,像 GPT-4o 这样的先进模型,有时会显得非常自信,但一旦遇到质疑,它们就可能立即放弃正确答案。 这种现象引发了研究人员的关注,他们探索了这种行为背后的原因。

最近,Google DeepMind 与伦敦大学的研究揭示了大语言模型(LLMs)在面对反对意见时的 “软弱” 表现。比如,像 GPT-4o 这样的先进模型,有时会显得非常自信,但一旦遇到质疑,它们就可能立即放弃正确答案。这种现象引发了研究人员的关注,他们探索了这种行为背后的原因。

研究团队发现,大语言模型在自信与自我怀疑之间存在一种矛盾的行为模式。模型在最初给出答案时,往往自信满满,表现出与人类相似的认知特征,通常会坚定地维护自己的观点。然而,当这些模型受到反对意见的挑战时,它们的敏感度超出了合理范围,甚至在面对明显错误的信息时也会开始怀疑自己的判断。

Gemini,Google DeepMind,人工智能,AI

为了深入了解这一现象,研究人员设计了一项实验,比较了不同条件下模型的反应。在实验中,研究者使用了 Gemma3、GPT-4o 等代表性模型,进行了一轮二元选择问题的回答。首次回答后,模型会接收虚构的反馈建议,并进行最终决策。研究者发现,当模型能够看到自己最初的答案时,它们更倾向于保持原有的判断。而当这个答案被隐藏时,模型改变答案的概率大大增加,显示出对反对建议的过度依赖。

这种 “耳根子软” 的现象可能源于几个因素。首先,模型在训练过程中受到的强化学习人类反馈(RLHF)使其对外部输入产生过度迎合的倾向。其次,模型的决策逻辑主要依赖于海量文本的统计模式,而非逻辑推理,导致它们在面对反对信号时容易被偏差引导。此外,记忆机制的缺乏也使得模型在没有固定参照的情况下容易动摇。

综上所述,这一研究结果提示我们,在使用大语言模型进行多轮对话时,需格外留意其对反对意见的敏感性,以避免偏离正确的结论。

相关资讯

OpenAI推全新语音转录模型gpt-4o-transcribe,语音转文字准确率飙升

继此前在语音 AI 领域引发一些关注后,OpenAI并未停下在该领域探索的脚步,现在这家ChatGPT的创造者再次发力,推出了三款全新的自主研发语音模型,分别为:gpt-4o-transcribe, gpt-4o-mini-transcribe and gpt-4o-mini-tts。 其中最受瞩目的当属gpt-4o-transcribe。 目前,这些新模型已经率先通过应用程序接口(API)向第三方开发者开放,开发者们可以利用它们打造更智能的应用程序。
3/21/2025 9:01:00 AM
AI在线

研究发现:AI 越聪明就越有可能“胡编乱造”

一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更
9/29/2024 1:20:36 PM
远洋

Meta用《圣经》训练超多语言模型:识别1107种、辨认4017种语言

在《圣经》中有一个巴别塔的故事,说是人类联合起来计划兴建一座高塔,希望能通往天堂,但神扰乱了人类的语言,计划也就因此失败。到了今天,AI 技术有望拆除人类语言之间的藩篱,帮助人类造出文明的巴别塔。
5/23/2023 3:05:00 PM
机器之心
  • 1