作者 | 陈为锐
编辑 | 陈彩娴
2025 年已到年中,大模型的生死战已经进入下半场,其中一个鲜明的标志就是:今年除了 Agent,大模型领域几乎静悄悄。
一方面,下一代基础模型的技术壁垒已将具备竞争可能的团队逐渐收敛至中美数家,同时创新门槛在提高,“仅追随”而非“实际超越”难以吸引关注量,因此比拼底层技术的声量在降低。以 Meta 为例,近日彭博社等媒体披露,由于扎克伯格对 4 月发布的 Llama 4 效果不满意、认为其在竞争中掉队了,计划在内部设立新的“超级智能小组”,准备下一轮冲刺。
人们通过 Agent 在自主理解、规划、使用工具与完成任务的表现上看到了 AGI 长征中基础模型以外的下一个广阔天地。在硅谷知名投资机构的多个交流会中,Agent 所激发的新经济还有一个名称,叫:自动收益的商品化。
科技极客们想象,无论是物理世界中的机器人或虚拟世界中的 Agent,其被人类个体赋予目标后,相当于用户的分身,可以通过自主理解、学习、规划、调用工具、储备记忆等步骤完成一个个任务后获得收益。此前,AI 科技评论也将 Agent 比喻到“AI Being”(类比人 Human Being),具备价值可交换的商业特质——如今这个趋势已得到行业认同。
那么在自动收益商品化的 Agent 市场中,个体与企业如何凭借自己的品味、参与开发所需的 Agent?
基础模型毫无疑问占据主导优势。目前我们所看到的 Deep Research 工具,基本都来自模型头部厂商。基础模型就像培养 Agent 能力的高校,而强化学习是 Agent 进入特定环境后适配任务的桥梁,因此同时拥有基础模型与 Agent 产品开发品味的团队自然能在这当中占一杯羹。
但随着头部云厂商的加入,纯产品团队与行业玩家在开发 Agent 上的潜力也成为了现实。集合了基础模型、强化学习、云计算等第三方开发服务能力的云平台,为 Agent 开发提供了 AI Being 的原材料、同时还有落地到具体场景的辅助 buff,相当于联手开加盟店。
昨天字节火山引擎的最新发布,就体现了对 Agent 开发落地模式的新探索。
一、2C 到 2B:Agent 的落地困境
Agent 爆火固然离不开 Manus 的功劳,但更重要的点在于,Agent 的任务拆解与自主执行能力以及执行步骤过程的透明化,正好切中了需求侧市场对自动化工具的迫切需求。
有业内人士评价,“Manus 火不只是由于能做什么事,还在于他们给了用户更多的掌控感,你能看到这个 Agent 是怎么操作的。类似于推理模型的思维链,通过可解释性和用户参与感打破技术黑箱,以此建立用户信任。”
同时,在技术实现层面,当然 Agent 已经验证了 “模型 + 云” 的成功运行逻辑。Agent 核心能力依赖大模型或多模态模型,而这些模型的推理对算力要求极高。
这种组合不仅满足了企业在算力、成本、稳定性等方面的刚性需求,还为未来生态整合等问题提供了解决方向,形成了一套完整的行业解决方案思路。
这也造成了,虽然 Manus 是通用智能体,且应用场景偏向 C 端,但在行业看来,Manus 的产品形态高度适应 B 端对自动化办公流程的强需求性,更像是为 B 端而生的。
Agent 的 To B 与 To C 孰好孰坏,暂无共识,但从客观来看:B 端市场对降本增效的刚性需求正催生万亿级蓝海,是整个 Agent 行业的下一块必争之地。
不过,企业级 Agent 落地绝非坦途:模型能力带来的 “幻觉问题”、跨系统协作的高昂成本、工业级标准的严苛要求,无不考验着当下的 Agent 产品从 “玩具” 到 “生产力工具” 的进化能力。
梳理 B 端与 C 端 Agent 的本质差异后可以发现,多数 C 端场景的 AI 产品因生态位和解决问题的深度不同,大多数都只能吃到一波流量。许多 C 端产品初期靠炫技吸引用户,如果无法持续解决实际问题,就会造成用户粘性差,以至于难以平衡获客成本与转化收益。
相比之下,To B 领域的 Agent 虽然前期推广难度大,但一旦契合企业需求,往往就容易收获稳定的客源。
企业对降本增效、流程自动化的需求是持续且强烈的,从电商营销再到到金融法律等领域,Agent 都还有巨大的应用空间,且这些领域的企业往往付费能力强,一旦形成成熟的商业模式,收益将较为可观。
有观点认为,这也是行业对 B 端 Agent 兴趣更高的原因之一,Agent 的很多实际应用场景最后还是要转化至 B 端,对于大厂来说,To C 业务本质是拿流量,项目的最终归宿还是 To B。
也正是因为 B 端对 Agent 的强需求性,因此当 Manus 出现之时,整个行业都看到让 Agent 具备了商业落地的可能性。
众多创业公司在这片领域中寻找机会,其中一部分选择套壳工具模式,基于开源模型或大厂 API 做文生图、代码辅助等轻量化应用,另一部分则聚焦垂类深耕,像聚焦制造业场景的智用开物等,避开了通用 Agent 的高成本陷阱。
但无论 To B 还是 To C,创业公司在智能体开发流程中普遍遇阻,尤其是 B 端落地。
从模型能力方面分析,当前技术存在诸多限制。以智能客服场景为例,很多智能客服存在幻觉问题,无法保证与客户交流的准确性;许多在 Auto Agent 领域探索的产品虽具备一定工作流程,但在实际 B 端场景应用中仍不够成熟,产品的反应速度和输出速度与真正解决企业问题的要求相距甚远。
而系统、数据孤岛与协作成本也是 B 端 Agent 面临的核心困境。传统 B 端企业内部存在多个独立系统,自动化流程需多个 Agent 协作完成,跨系统对接需要投入大量资源。同时,不同企业的智能体缺乏统一标准,难以直接连接协作,导致整个 Agent 系统效率低下。
B 端场景对 Agent 要求极为严苛,不仅需要具备多任务协调、领域知识深度、异常处理等能力,还可能涉及企业核心数据处理。由于不同行业、企业在业务流程、数据格式、审批规则等方面差异巨大,B 端 Agent 想要真正落地就必须达到工业级标准,从 “玩具” 进化为 “可信赖的数字化员工”,这一技术门槛远超 C 端。
对此,行业目前的主流解决方案为“AI 原生应用运行平台+MCP 产品组合”,在国内,许多模型厂商都推出了企业级的 AI 云原生应用开发平台,将其视作解决大模型技术向实际应用转化的最后一公里难题的答案,为企业及个人开发者提供 Agent 应用的一站式构建能力。
To B 的技术门槛升级后,初创企业想要入局,离不开 AI 云原生平台作为“智能生产力基础设施”的桥梁作用,当“开箱即用”越来越成为企业刚性需求,新的开发范式正在重构 Agent 落地的底层逻辑。
在这个产品与场景深度耦合的时代,技术叙事的结局已经十分明了,谁能破解 B 端 Agent 落地的 “最后一公里” 难题,谁就能在智能生产力革命中占据先机。
二、Agent 开发上云的“加速度”
对于企业来说,自动化办公转型已箭在弦上,但目前可选的 Agent 产品十分有限,由于 Agent 的背后就是模型和产品,因此很多非模型层面的公司仅靠自身很难做出符合市场需求的 Agent。
对于非模型原生企业而言,突破 “模型能力壁垒 + 工程化落地瓶颈” 的双重制约,成为抢占智能生产力高地的核心命题,而如何借助 AI 云原生技术体系底座,通过全栈工具链、模型工程化能力与行业场景深度耦合,也成为企业打造从技术选型到商业闭环路径的决定因素。
非模型层面的企业在切入 Agent 赛道时,首先面临的就是 “模型能力断层”,既缺乏大模型底层研发能力,又难以将通用模型高效适配垂直场景。
以一个公司员工出差航班选择场景为例,仅仅只是简单的“查询某天北京飞往香港的航班,并推荐符合乘机习惯的班次”这一简单需求,都需要 Agent 具备解析用户查询意图、调用外部数据、结合用户习惯优化推荐逻辑、生成网页代码并完成公网部署等流程的能力,需要企业具备从模型、开发环境再到通信协议的完整技术链路。
在这一背景下,AI 云原生成为企业智能生产力的关键切入点,类似于火山引擎提出的 MCP 服务+豆包大模型+云服务的一整套 Agent 开发范式,就能直接跳过上述难点 0 帧起手构建起 Agent 的技术底座。
借助这套新的开发范式,上述的“航班查询”Agent 开发流程也被简化成:先通过“TRAE”支持 AI 开发全流程,再使用“豆包大模型”作为 Agent 背后的“大脑”生成回答并调用 MCP 协议,以获取用户历史行为数据及航班信息,最后实现航班推荐操作。
在这套新的 Agent 开发范式中,专攻编程场景的「TRAE」作为和火山引擎协同的 AI 原生 IDE 产品,在降低编程开发的门槛的同时串联起整个开发环境,实现产品、工程、模型的有机结合。
在传统软件开发流程中,包含了需求调研、产品规划、界面设计、功能拆解、接口联调、部署发布等多个步骤,编码工作只是其中一个环节,占比约为 30% 左右。如果 AI Coding 工具只做 AI代码生成,在实际工程应用中将很难全面提高开发效率。
如何将零散地分布在不同环节、工具中的 AI 能力融合起来,成为让 AI 真正融入工作流的重点,也成为 TRAE 基于提升软件开发全流程效率和体验打造产品的核心。
通过 TRAE,开发者可以通过自然语言描述目标生成文件结构、拆分模块、补全代码、甚至自动新建 UI 页面,按照项目需求执行定制化任务。
从今年 1 月上线至今, TRAE 月活用户已经超过了 100 万,累计生成超 60 亿行被用户接受的代码,实现 AI Coding 在程序员群体中的落地。
目前,TRAE 已经完成了从“代码生成”到“AI 开发”的转变,在 TRAE 的下一个版本中,将以 AI 为中心整合不同的 Agent、MCPserver和工具,依托豆包等模型打造出全新的 AI 协作型开发空间,让 AI 在各开发环节组织执行,实现任务上下文自动流转,更好服务新的 Agent 开发范式。
1、豆包大模型 1.6 解决 B 端 Agent 反应速度、输出速度慢难题
从早期的感知智能再到如今的 Agentic AI,AI 对企业生产力的提升已经从单纯的内容分析、内容创作转变为目标导向的自主执行系统,更看重大语言模型的理解、环境交互能力,以及如何与其他生产工具实现深度融合调用。
前面提到,B 端 Agent 落地首先需要解决的就是模型能力的问题,如果不能从模型层面解决产品反应速度、输出速度慢等从根本上影响用户体验的缺陷,Agent 就离真正解决企业问题还有很远。
而作为目前常用的“Agent 大脑”之一,豆包大模型不久前刚刚更新了 1.6 版本,其中既包括豆包目前最强的思考模型 Doubao-Seed-1.6-thinking、灵活支持 thinking/non-thinking/自适应思考三种模式的 Doubao-Seed-1.6 模型,也有具备超低延迟和出色的视觉理解能力的 Doubao-Seed-1.6-flash 模型。
Doubao-Seed-1.6 是国内首个支持 256K 上下文的思考模型,在自适应思考下,模型可以根据 prompt 难度自动决定是否开启 thinking,提升效果的同时大幅减少 tokens 开销,这对于复杂 Agent 的构建来说非常重要。
针对 B 端 Agent 反应速度、输出速度慢的问题,豆包大模型 1.6 在推理能力、推理速度上都实现了进一步升级,Doubao-Seed-1.6-flash 模型专门面向于低延迟、低成本需求,模型具备超低延迟表现,per token 延迟甚至可以低至 8ms 左右。
同时,豆包还关注到了不同业务场景对模型能力需求的差异,豆包大模型 1.6 全系列都原生支持多模态思考能力,以求更好理解和处理真实的业务场景。在电商场景,豆包大模型可以在海量角度不同的图片中,快速识别同款;在餐饮场景,百胜中国肯德基基于豆包大模型,构建了新一代 AI 智能陪练系统,可基于企业专属知识库智能萃取业务领域知识和话术,让员工在高度仿真的对话环境中模拟线下门店实战场景
值得一提的是,豆包此次的 1.6 版本在编程能力上还做了定向增强,特别是针对前端开发场景,现在让豆包大模型生成一个企业级的客户管理 CRM 系统的原型图只需要几分钟时间,还能生成完整的代码并支持在线预览,作为对比,同样的需求在过去可能需要产品经理和 UI 设计师花费数天时间才仅仅能完成原型图。
此外,企业还可以借助火山引擎「PromptPilot」平台进行提示词优化,帮助用户准确传达需求。
在日常与大模型聊天机器人的交流过程中我们应该都会发现,有时候我们很难对大模型传达清晰的需求表达,对于大部分人来说,通过 prompt 摸索模型能力边界是一个痛苦乏味的过程,这一点在 B 端追求效率的场景下更为明显,特别是 B 端往往还要面临 Agent 上线后层出不穷的 Badcase。
而 PromptPilot 是一款面向大模型应用落地的使能平台,充当的就是大模型与用户之间“需求翻译”的角色。PromptPilot 从 Prompt 构建这一基础环节出发,通过用户反馈与数据驱动机制,可以精准识别和表达用户任务意图,自动生成解决方案,并实现线上 Badcase 检测与运行时持续优化。
“虽然说模型越强,prompt 越重要,但很多时候,让用户自己通过 Prompt 调试模型是一种碰运气的做法。”从这点来看,Prompt Pilot 更像是一种帮助用户精准控制大模型的工具,平台并不要求用户拥有大模型专业知识,只要用户对自己的行业领域/应用场景有一定的专业知识和判断力,就能帮助用户提升大模型在具体应用场景的效果。
2、火山 MCP 打通 Agent 开发的模型、工具、生态体系
针对传统开发工具难以满足 Agent 全生命周期管理需求的难题,火山引擎以 MCP 为标准,构建端到端智能体生产体系。具体来看,火山 MCP 不仅全面覆盖办公、搜索、内容等大模型工具生态,还打通了 TRAE、火山方舟、扣子空间等一系列 Agent 开发体系,用户可以一键选择 200+ MCP 服务,快速打造出一站式端到端完整链路极速体验,高效构建复杂 Agent 并直接部署发布。
事实上,字节旗下扣子平台为了适配端到端智能体生产体系的发展,已经由原先的 Agent 低代码开发平台升级成为覆盖 Agent 低代码开发、全代码开发,Agent 调优和 Agent 协作的全生命周期平台。
针对全码开发者,扣子提出全码 Eino 开源框架,为开发者提供 GO 语言版本的 Agent 搭建框架,以快速编写构建 Agent。目前,扣子上已有诸多企业级 AI 解决方案,涵盖调研、文案、电商、教育等不同场景,帮助企业既能招到精通各项技能的“通用实习生”,也能请到各行各业的“领域专家”。
日前,扣子还针对企业用户上线了企业版,提供精细化权限管理、多租户隔离、全链路安全合规等能力,全新的「扣子罗盘」还能能帮助企业开发者完成 Agent 的调试。截止目前,已有上万家企业、数百万开发者正在使用扣子开发平台。
在具身智能领域,松延动力人形机器人 N2 接入扣子 AI 智能体后可以 32 自由度模拟 200 + 微表情的形式实现沉浸式交互。
在智能客服领域,抖音电商通过扣子搭建智能客服系统,客服智能体不仅可以通过任务驱动和卡片交互自动生成回复,还能作为后台 AI 辅助能力,提供实时建议和解决方案,辅助人工客服快速处理复杂问题。
数据显示,在引入扣子智能客服系统后,智能客服每一轮的回复耗时相较于人工回复降低到了 15s~20s,对比传统智能链路转人工率降低 5pp+,满意度正向 2pp+,帮助人工客服的工作效率显著提升 50%。
3、开箱即用,全栈开发工具聚焦 Agent 落地技术、成本痛点
至此,我们能够很清晰的看出,无论是豆包大模型的升级还是火山 MCP 推出,甚至是一个对于大多数模型厂商来说并不重要的“Prompt 优化平台”,对于火山引擎的这一整套全栈 Agent 开发工具来说,每一个环节都在聚焦 B 端 Agent 的落地痛点。
通过 “技术产品化 + 能力服务化 + 场景行业化” 的三层架构,火山引擎 Agent 开发范式结合 Agent Driven 的云、数据、安全技术,打破了传统 IaaS+PaaS+SaaS 的边界,将复杂的 Agent 开发运维需求转化为标准化能力并提供,让 Agent 从概念走向企业级应用。
火山引擎通过 Agent 开发平台提供端到端的开发环境,将原生 Agent、数据湖、机器学习等技术封装为开箱即用的服务,在避免企业重复造轮子的同时,通过按需付费降低企业使用成本,并提供适配企业的定制化解决方案。根据官方数据,豆包 1.6 成本下降了 63%,企业只需要原来三分之一左右价格,就能获得一个能力更强、原生多模态的新模型。
截止目前,有近八成主流汽车厂商选择豆包大模型作为汽车 AI 升级的助力,火山引擎的整套 Agent 开发逻辑以“协助打造 Agentic AI”为核心,聚焦帮助企业低成本高效率做好 Agent。
在构建企业级 Agent 的过程中,火山引擎建议遵循“模型选择、性能优化、数据融合、安全保障、编排智能体”的关键路径,以豆包大模型的全栈多模态能力、超大规模语言模型性能及模型家族的场景化覆盖作为模型基础,云服务对 MCP 提供支持、形成标准化协议驱动的全栈协作生态,规避 Agent 开发与部署环境脱节,动态调度算力资源。
在底层设施方面,云基础设施从 “弹性资源池” 升级为 “密集算力中心”,需承载多模态大模型训练与推理,并需要平衡企业推理效率与成本。火山引擎云基础施面向 Agent 与模型,以 GPU 为中心进行了网络、存储、计算的升级,包括高达 320Gbps 的 vRDMA 高速互联能力、13s 加载 671B 模型推理引擎,整合了全栈推理加速、工程实践、高性价比资源、安全易用和端到端体验等优势。
而对于前文提到的系统、数据孤岛问题,火山引擎基于开放技术的智能异构计算平台,引入模型时代前沿技术栈,Agent 应用中产生的数据可以无缝回流到数据平台,便于分析和沉淀,通过统一的、全链路的数据管理,可避免数据孤岛、解决企业数据碎片化问题。
在 Agent 时代,企业的竞争力不再取决于是否拥有模型,而在于能否高效调用模型、编排智能体、融合数据。如此看来,火山引擎 AI 云原生对于企业开发者而言,不再局限于提供基础的工具、模型、计算资源,而是以智能为纽带,将分散的技术组件编织成有机整体,帮助企业降低技术风险。
以火山引擎 AI 云原生技术为桥梁,非模型企业正在打破 “技术壁垒 - 成本高企 - 场景割裂” 的落地困境,企业级 Agent 与端到端全场景智能开箱即用,云原生底座就成为释放 Agent 潜力的核心基础设施。
借助火山引擎 AI 云原生平台,浙江大学仅仅花了一周时间便落地集 AI 科学家、课堂问答、教务咨询等多场景定制化应用于一体的 “浙大先生” 智能体平台,服务 5 万多名在校师生,开发这些应用的主力全都为浙大的老师、学生和浙大校园各种信息系统的服务商,在开箱即用的 Agent 开发平台的支持下,快速落地定制化的 Agent 应用已不再是难题。
当 Agent 真正成为企业生产系统的 “神经中枢”,生产力革命的红利才将真正释放,技术演进的必经之路上,Agent 已经成为企业数字化转型的必争之地,而 AI 云原生带来的 Agent Ready,也将推动产业从“概念炒作”走向“生产力革命”,最大化释放 Agent 的智能价值。