AI在线 AI在线

研究:AI 聊天机器人在数据总结能力上愈加糟糕,关键细节常被遗漏

随着人工智能技术的迅猛发展,各大 AI 创业公司不断宣称其产品将工作方式和知识获取的方式。 然而,最近一项发表在《皇家学会》上的研究却揭示了新一代 AI 模型在总结文本时存在严重问题,令人担忧。 研究显示,新款 AI 聊天机器人在提供信息时,有高达73% 的概率会遗漏关键信息。

随着人工智能技术的迅猛发展,各大 AI 创业公司不断宣称其产品将工作方式和知识获取的方式。然而,最近一项发表在《皇家学会》上的研究却揭示了新一代 AI 模型在总结文本时存在严重问题,令人担忧。研究显示,新款 AI 聊天机器人在提供信息时,有高达73% 的概率会遗漏关键信息。

AI 机器人 人工智能 (3)数据分析

图源备注:图片由AI生成,图片授权服务商Midjourney

这项研究对十款广泛使用的语言模型(LLM)进行分析,样本涵盖近5000个科学研究的总结,涉及的聊天机器人包括 ChatGPT-4o、ChatGPT-4.5、DeepSeek 和 LLaMA3.370B。研究结果显示,即使在特定要求下,AI 提供的回答仍然在遗漏关键细节方面的错误率是人类撰写科学摘要的五倍。

研究人员指出:“在总结科学文本时,LLM 可能会遗漏限制研究结论范围的细节,从而导致对原始研究的结果进行过度概括。” 更令人担忧的是,随着聊天机器人的不断更新,其错误率反而在上升,情况与 AI 行业领袖们的承诺完全相反。例如,在2023至2025年间,美国青少年对 ChatGPT 的使用率从13% 增加到26%。在研究中,旧版 ChatGPT-4Turbo 遗漏关键细节的可能性是原版的2.6倍,而新版 ChatGPT-4o 则高达9倍。类似地,Meta 的 LLaMA3.370B 相较于旧版本,其过度概括的概率更是高达36.4倍。

总结大量数据为简洁的几句话是一项复杂的任务。虽然人类可以直观地从具体经验中提取广泛的教训,但这对于编程给聊天机器人而言却极其复杂。研究人员指出,在临床医疗等领域,细节至关重要,哪怕是微小的遗漏也可能导致严重后果。因此,将 LLM 广泛应用于各行各业,尤其是医疗和工程领域,面临着巨大的风险。

尽管如此,研究也提到,提供给 LLM 的提示对其回答结果有显著影响,但这是否会影响其对科学论文的总结仍然未知,这为未来的研究提供了方向。总体来看,除非 AI 开发者能够有效解决新一代 LLM 的这些问题,否则人们可能还得依赖人类撰写的内容来准确总结科学报告。

划重点:

🧠 研究发现新一代 AI 聊天机器人在总结信息时,关键细节遗漏率高达73%。  

📈 新版聊天机器人错误率上升,特别是在青少年使用率快速增加的背景下。  

🔍 提供给 LLM 的提示会影响其回答,但对科学论文的总结效果仍需进一步研究。

相关资讯

230页长文,涵盖5大科学领域,微软团队使用GPT-4探索LLM对科学发现的影响

编辑 | 紫罗前不久,微软 DeepSpeed 团队启动了一个名为 DeepSpeed4Science 的新计划,旨在通过 AI 系统优化技术实现科学发现。11 月 13 日,微软团队在 arXiv 预印平台发表题为《大型语言模型对科学发现的影响:使用 GPT-4 的初步研究》(「The Impact of Large Language Models on Scientific Discovery: a Preliminary Study using GPT-4」)的文章。文章篇幅长达 230 页。论文链接:,自然
11/16/2023 11:23:00 AM
ScienceAI

在24项场景中优于人类医生,Google团队开发基于自博弈的诊断对话大模型

编辑 | 白菜叶医学的核心在于医患对话,熟练的病史采集为准确的诊断、有效的管理和持久的信任铺平了道路。能够进行诊断对话的人工智能(AI)系统可以提高护理的可及性、一致性和质量。然而,学习临床医生的专业知识是一个巨大的挑战。Google Research 和 Google DeepMind 的 AI 团队开发了 AMIE(Articulate Medical Intelligence Explorer),这是一种基于大型语言模型(LLM)的人工智能系统,针对诊断对话进行了优化。AMIE 使用一种新颖的基于自博弈(se
1/16/2024 6:44:00 PM
ScienceAI

研究发现:AI 越聪明就越有可能“胡编乱造”

一项新研究发现,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。图源 PexelsAI在线注意到,该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更
9/29/2024 1:20:36 PM
远洋
  • 1