AI在线 AI在线

Anthropic CEO 阿莫代伊:AI 模型出现“幻觉”的频率可能比人类还低

阿莫代伊强调,AI出现幻觉并不会阻碍Anthropic迈向 AGI的目标。“这取决于你用什么标准衡量,但我怀疑AI模型的幻觉频率可能低于人类,只是它们出错的方式更出人意料。”

据外媒 TechCrunch 今日报道,在 Anthropic 于旧金山举办的首场开发者活动“Code with Claude”上,CEO 达里奥・阿莫代伊表示,现在的 AI 模型产生“幻觉”的频率可能比人类还低

AI在线注:所谓“幻觉”是指 AI 虚构内容却以事实的形式呈现出来。

Anthropic CEO 阿莫代伊:AI 模型出现“幻觉”的频率可能比人类还低

阿莫代伊强调,AI 出现幻觉并不会阻碍 Anthropic 迈向 AGI 的目标。“这取决于你用什么标准衡量,但我怀疑 AI 模型的幻觉频率可能低于人类,只是它们出错的方式更出人意料。”

阿莫代伊一向是业界对 AGI 持最积极态度的声音之一。他说:“人们总想找出 AI 能力的‘上限’,但目前根本看不到这样的限制。”

不过,并非所有人都认同这种看法。谷歌 DeepMind CEO 哈萨比斯本周指出,当前的 AI 模型“漏洞百出”,连一些基本问题都回答错误。

也有迹象表明,在处理复杂推理任务时,一些新模型的幻觉反而更严重。比如 OpenAI 的 o3 和 o4-mini 版本幻觉率就比此前的推理模型更高,甚至连 OpenAI 自己也搞不清楚原因。

阿莫代伊还提到,人类本身也经常出错。因此,他认为 AI 出错并不说明它“不够聪明”。不过他也坦言,AI 以极高信心讲出错误信息,确实容易引发问题

相关资讯

如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”

当前 AI 的训练数据几乎不包含“我不知道”这样的表述,因此它们天生不会谦逊。Cohen 和 Dobler 通过调整 AI 训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。
2/13/2025 7:16:56 AM
清源

​西湖大学研发 AI 文本检测模型,助力辨别人工智能创作

近日,西湖大学的研究团队成功研发出一种能够检测人工智能生成文本的新模型。 该团队的负责人张岳教授在接受采访时表示,这一模型采用无监督算法,可以有效判断一篇文章是否由 AI 创作,尤其在人工智能迅速发展的当下显得尤为重要。 张岳教授提到,随着科技的不断进步,AI 在创作领域的应用日益普及。
3/13/2025 5:06:00 PM
AI在线

三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少

近日,智利大学 CIAE 教育研究所的研究员 Roberto Araya 进行了 4 组对照实验:提供相同的提示词,让 Gemini 2.0 Flash、ChatGPT o3-mini、DeepSeek R1 进行推理分析,研究三个模型在应对幻觉问题上的性能对比。 其研究发现:ChatGPT 03-mini 在应对大模型幻觉问题上占有绝对优势,能够灵活切换不同的策略进行思考推理。 相比之下,DeepSeek R1 和 Gemini 2.0 Flash 虽然能够尝试使用策略,但表现了出对这些策略的抗拒,且推理过程存在错误或混乱。
3/28/2025 3:37:00 PM
郑佳美
  • 1