在商业和消费科技领域,最新的热点话题全都围绕着智能体。
这些智能体可以被视为GenAI领域的下一个飞跃,该领域曾为我们带来了ChatGPT等大型语言模型聊天机器人。与仅仅回答问题或生成信息不同,它们能够代表我们采取行动,与其他工具和服务进行交互,以完成复杂的任务。
这项技术尚未达到如同几年前ChatGPT发布时那样突破主流的临界点。
但毫无疑问,它正在路上,其影响将是巨大的,因为我们正越来越多地转向AI助手来帮助我们处理生活中的各个方面。
不过,关于这一话题仍存在许多误解。让我们来澄清关于智能体的五个常见误解。
误解一:智能体基本上只是更好的聊天机器人
智能体有一个根本性的特质,使它们与聊天机器人区别开来,并且超越了聊天机器人,它们不仅会说,更会做。
这意味着它们能够采取行动,特别是基于计算机的行动,如与网站、数字服务和软件进行交互。当你考虑到我们生活中有多少任务是通过这种方式处理的,那么它们能够为我们分担的工作量是相当可观的。
从技术角度来看,这是可能的,因为与聊天机器人由单一的语言处理工具驱动不同,智能体由许多独立的工具和应用程序组成,每个都专注于不同的任务。这些工具以层级结构排列,一个强大的大型语言模型(LLM)工具作为项目经理,将任务分配给能够完成工作的任何工具。聊天机器人与智能体基于相同的技术,但只是对我们的提示提供响应。智能体将使AI更加实用且有意义地融入我们的日常生活。
误解二:智能体只能执行有限数量的任务
确实,在早期阶段,像OpenAI Operator这样的首批面向消费者的智能体工具功能相对有限,但从理论上讲,智能体最终将能够处理我们通常使用智能手机进行的几乎所有任务。这可能包括管理我们的日程安排、购买杂货、安排旅行、为医疗保健或汽车维修等服务预约、预订出租车、管理银行账户以及无数其他事情。
考虑到之前AI技术的改进速度,这很可能很快就会发生。比较ChatGPT发布时的能力与现在的表现。在短短两年多的时间里,它已经进化到拥有记忆、网页浏览、视觉、语音以及现在的智能体能力。
误解三:智能体无法被欺骗或操纵
你可能会认为,要欺骗或操纵超级智能的智能体是困难的,但事实并非总是如此。
至少有一项研究发现,使用计算机视觉在网络上搜索优惠信息的智能体可以被诱导点击特定链接或弹出广告,方法是让它们看起来拥有AI正在寻找的信息。这为涉及影响或颠覆智能体行动的新领域打开了大门,包括企业、伦理和犯罪领域。可以预期会出现新的网络犯罪和欺诈形式,涉及欺骗和操纵智能体。同时,这也为能够有效向智能体营销的合法企业开辟了新机遇。
误解四:自主式AI与AGI相同
在AI领域的众多术语中,很容易混淆。自主式AI和AGI是两个经常被混淆的话题,但实际上它们指的是不同但相关的概念。AGI指的是能够“泛化”其知识和能力的机器智能,以解决任何问题,而不仅仅是它被训练去解决的问题(类似于人类)。
由于自主式AI使机器能够更自主地运作并解决更复杂的挑战,同时创建了让它们在工作中变得更加知识渊博的反馈循环,因此它可以被视为向AGI迈进的一步,然而,真正的AGI仍被认为还有一段距离,尽管OpenAI的首席执行官山姆·奥特曼(Sam Altman)认为我们今年可能会看到它。
误解五:智能体可以在没有人类输入或监督的情况下工作
自主式AI经常被描述为自主的,因为理论上它能够在没有人类输入或监督的情况下工作,然而,在实践中,这并不是一个好主意。
记住,智能体是工具。它们可以代表我们采取行动,但我们始终对结果负责。自主式AI非常新,并且经常犯错,但根据一些基准测试,它在许多任务上的表现仍然不如人类。因此,人类的监督和问责制至关重要。
这既适用于使用智能体消费应用的个人,也适用于希望实施商业智能体的企业。我们需要了解AI公司如何处理我们的数据,以及这些数据如何被用于训练机器代表我们采取行动或做出决策。这意味着人类的监督以及能够在出现错误时介入和干预,或者揭露不道德行为的能力,是任何智能体框架中的关键要素。
通过理解智能体不仅仅是下一代聊天机器人,它们的实用性将大幅增长,以及人类的监督是不可协商的,且道德标准是我们所有人的责任,我们可以确保自己准备好迎接它们将带来的变革浪潮。