AI在线 AI在线

对AI输出结果无休止的调整可能削弱IT成效

许多AI用户已对生成结果保持适度的怀疑,但一些专家指出,过度的怀疑正演变成一种趋势:用户不断反复调整输出,几乎陷入无休止的“打磨”中。 这种新出现的现象被称为“doomscrolling(过度提示)”,与“doomscrolling(指盲目滚动智能手机或电脑屏幕浏览大量负面的新闻报道、社交媒体帖子或其他网络分享内容)”类似——后者指人们在社交媒体或负面新闻上无法停下刷屏。 但两者影响不同:doomscrolling或许只是浪费晚餐到睡前的几个小时,让人更悲观,而doomprompting则可能让企业付出高昂代价,员工耗费大量时间与资源,只为“打磨”AI的输出。

对AI输出结果无休止的调整可能削弱IT成效

许多AI用户已对生成结果保持适度的怀疑,但一些专家指出,过度的怀疑正演变成一种趋势:用户不断反复调整输出,几乎陷入无休止的“打磨”中。

这种新出现的现象被称为“doomscrolling(过度提示)”,与“doomscrolling(指盲目滚动智能手机或电脑屏幕浏览大量负面的新闻报道、社交媒体帖子或其他网络分享内容)”类似——后者指人们在社交媒体或负面新闻上无法停下刷屏。但两者影响不同:doomscrolling或许只是浪费晚餐到睡前的几个小时,让人更悲观,而doomprompting则可能让企业付出高昂代价,员工耗费大量时间与资源,只为“打磨”AI的输出。

对话循环的设计陷阱

过度“折腾”IT系统或代码并不新鲜,但AI带来了新的挑战。一些专家表示,部分LLM的设计似乎天然促使用户陷入持久的对话循环,答案往往会引出下一个提示。

AI安全开发公司Jozu的CEO兼联合创始人Brad Micklea指出,像ChatGPT这样的AI在回答提示时,经常会建议下一步该怎么做。

“从好的方面看,这只是为了在有限信息下改进回复,但更糟的情况是,它可能是为了让用户上瘾。”他说,“用户可以无视这些建议,而且通常应该无视,但就像doomscrolling一样,这比放弃要难得多。”

智能体测试服务商Recall的CTO兼联合创始人Carson Farmer补充说,这个问题在IT团队中更严重,因为很多工程师天生爱“折腾”。

“单个工程师给AI下指令时,很快就能得到不错的结果,”他表示,“然后你会想:‘这已经挺好,但我肯定能做到完美。’结果就陷入经典的沉没成本谬误——工程师会想,‘我已经花这么多时间提示了,总能把这个坑挖出来。’”

如果项目一开始没有清晰定义什么是“好结果”,问题就更明显。

“不了解最终目标的员工会一直兜圈子,不知道该何时收手,”Farmer说,“完美是‘好’的敌人,而LLM让我们觉得只要再微调最后一个提示,就能达成完美。”

“过度提示”的两种形态

观察者发现,doomprompting主要有两种:

第一种是个人与LLM或其他AI工具的交互,这可能发生在非工作场景,也可能在工作时间内,比如员工反复调整AI生成的邮件、代码或研究查询结果。

Salesforce AI执行副总裁Jayesh Govindarajan指出,第二种类型正在伴随AI智能体的采用而出现:IT团队不断微调智能体,以寻找输出的细微改进。

随着智能体日益复杂,IT团队会有持续追求更佳结果的诱惑。他承认,在对AI输出保持健康怀疑与认定“已经够好”之间,往往只有一线之隔。

“在第一代生成式AI服务和系统中,我们讲究的是写出正确的提示,让系统在各种情境下生成理想结果,”他说,“后来自主式AI浪潮兴起,我们把原本用来写邮件的技术升级,用于编排更复杂的行动。”

Govindarajan见过一些IT团队在不断增加指令的过程中陷入“doom loop”,想通过叠加指令优化输出。“所谓doomprompting,就是不断下达指令,希望它们能发挥作用,但随着指令越来越多、甚至相互矛盾,最终牺牲了系统的整体智能。”

需要清晰目标与边界

与Govindarajan类似,Recall的Farmer也看到,对AI输出的合理怀疑与无休止修正之间存在张力。

他认为,解决之道是在项目前期设定明确预期和防护栏,让IT团队能识别“足够好”的结果。

Jozu的Micklea补充说,一份强有力的AI项目需求文档,应清晰说明目标受众、项目目标、约束条件以及“成功”的定义。

“如果在没有清晰计划、也不理解任务完成标准的情况下使用AI,就更容易被ChatGPT的后续建议带偏,”他说,“要记住,ChatGPT的建议并不了解你的最终目标,它只是多个逻辑上可行的下一步之一。”

Farmer的团队也曾尝试让多个智能体同时解决同一问题,类似“适者生存”的实验。

“与其陷入doomprompting,不如让五个智能体一起处理,再合并结果挑出最佳方案,”他建议,“既然无论如何都会消耗算力代币,不如用节省时间的方式。”

他还建议IT团队把智能体当作初级员工对待:“给它们明确的目标和约束,让它们自行完成任务,再回过头评估结果。不要让工程经理参与每一步,否则只会导致次优结果和doomprompting。”

相关资讯

智能扩展之道:企业IT团队如何为AI配置恰到好处的算力

AI项目负责人很少会从深入讨论基础设施和硬件开始,但经验丰富的规模化实施者警告说,如果不持续战略性地关注企业级关键基础,部署高价值生产工作负载将难以圆满完成。 好消息:企业越来越认识到,基础设施在推动收入增长、降低成本和提高效率的生成式、智能体及其他智能应用中发挥着关键作用。 据IDC统计,到2025年,与去年同期相比,企业在AI部署的计算和存储硬件基础设施上的支出将增长97%,研究人员预测,全球在该领域的投资将从目前的1500亿美元激增至2028年的2000亿美元。
7/2/2025 7:16:00 AM
Joe

Meta首席AI科学家认为当前GenAI和LLM将很快过时

Meta首席人工智能科学家Yann LeCun表示,目前的生成式人工智能(GenAI)和大型语言模型(LLM)范式可能很快就会过时。 他认为,这些系统需要新的突破来理解物理世界并与之互动。 LeCun在达沃斯世界经济论坛上谈到GenAI系统时表示:“没有人会再使用它们,至少不会将其作为人工智能系统的核心组件。
2/17/2025 11:04:27 AM
AI情报室

LLM表现出类似人类的“认知”下降迹象

GenAI问世不到两年,就在各个行业带来了众多创新,包括科学突破和前所未有的自动化和数据处理效率。 大型语言模型(LLM)经常被比作人类智能。 一些人工智能系统甚至在某些任务中表现优于人类。
3/3/2025 10:18:46 AM
AI情报室
  • 1