AI在线 AI在线

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

大家好,我是肆〇柒。 我从工程落地角度出发,看到一篇很有意思的研究想要分享出来。 这是一项来自微软研究团队的研究工作——Agent Lightning。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

大家好,我是肆〇柒。我从工程落地角度出发,看到一篇很有意思的研究想要分享出来。这是一项来自微软研究团队的研究工作——Agent Lightning。这个框架直面AI Agent训练的核心痛点,提出了一种“训练与执行完全解耦”的架构,让我们能用几乎零代码修改的方式,为任何复杂的AI Agent(无论是用LangChain、AutoGen还是其他方式构建的)注入持续学习的强化学习能力。

当AI Agent遇到强化学习:一场急需解决的"耦合危机"

你是否曾遇到这样的困境:精心构建的LangChain RAG系统性能不佳,想用PPO微调模型,却发现必须重写整个agent逻辑?手动设计复杂的attention mask,将多轮交互拼接成超长序列,这个过程不仅繁琐易错,还难以迁移到其他agent框架。

这正是当前AI Agent训练的真实写照。随着AI Agent在搜索、代码生成和工具使用等复杂任务中展现出巨大潜力,开发者们却面临着一个关键瓶颈:如何让agent拥有持续进化能力,而非仅仅依赖静态提示工程?

核心问题:现有的强化学习(RL)方法与AI Agent之间存在严重的"耦合危机"。传统RL框架主要针对静态、单次调用任务设计,难以适应agent的动态多变特性。当尝试将RL应用于真实世界的agent时,开发者往往陷入两难境地:要么重写agent逻辑以适配训练框架,要么放弃RL带来的持续优化能力。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

Agent Lightning 框架整体架构概览

上图:Agent Lightning框架实现了训练与执行的完全解耦,支持任意AI Agent的强化学习训练

微软研究团队最新推出的Agent Lightning框架,正是为解决这一根本性问题而生。作为首个实现"训练-执行完全解耦"的框架,它使开发者能够以几乎零代码修改的方式,将强化学习能力赋予任何AI Agent。本文将深入剖析这一突破性框架如何重塑AI Agent训练范式。

AI Agent的复杂性:为何传统RL方法难以奏效?

现代AI Agent远非简单的LLM调用,而是包含多个组件协同工作的复杂系统。理解这种复杂性,是认识Agent Lightning创新价值的前提。

1. 多维度的复杂性挑战

想象一个典型的RAG系统:用户提问→生成查询→检索文档→生成答案。这看似简单的流程背后,隐藏着三重复杂性:

  • 组件复杂性:LLM作为核心推理引擎,可能包含多个不同模型;工具调用(如数据库查询、代码执行)形成复杂的交互闭环;外部环境(如检索系统、模拟器)引入不确定性。
  • 工作流动态性:非固定执行路径(条件分支、循环)、运行时决策(LLM根据上下文决定下一步操作)、状态依赖(当前决策高度依赖历史交互)。
  • 框架多样性:LangChain提供模块化组件,AutoGen专注多智能体协作,OpenAI Agents SDK标准化工具调用,还有大量从零构建的定制化实现。

这种多样性使得为AI Agent设计通用训练框架变得极具挑战性。将这些智能体接入现有强化学习框架时,用户往往得手工改写或重实现其执行逻辑,以适配框架规范——整个过程既费时又容易出错,且难以在异构智能体生态中大规模推广。

2. 传统RL方法的四大痛点

当前主流RL方法普遍依赖"序列拼接+掩码机制",这种方法在实际应用中面临四大关键挑战:

  • 上下文累积导致输入过长:多轮交互拼接后经常超出模型上下文限制,增加训练服务的计算和内存需求。随着agent累积上下文通过多轮交互、工具输出、协议交换(如MCP)和多智能体通信,生成的序列经常超过LLM的输入长度限制。
  • 破坏位置编码连续性:RoPE等位置编码方法假设序列连续性,而掩码操作破坏了这一连续性,导致实现和调试更加困难。特别是在使用旋转位置编码(RoPE)等现代位置编码方法时,掩码会破坏位置编码的连续性,影响模型性能。
  • 训练-执行紧密耦合:训练框架必须了解agent内部结构以正确组织训练数据,过程繁琐且难以扩展到异构agent生态系统。这意味着开发者必须手动适应或重新实现agent执行逻辑以符合框架要求。
  • 不适用于复杂工作流:难以处理多智能体、条件分支和循环结构,仅适用于简单、顺序工作流的有限子集。拼接方法无法自然支持动态决策流程,如RAG系统中根据检索结果决定是否重试查询。

以LangChain构建的多跳RAG系统为例,当尝试应用PPO进行优化时,开发人员必须手动指定哪些token应该被优化、设计复杂的attention mask,并将整个对话历史拼接成单一序列。这一过程不仅增加了开发负担,还使优化逻辑与特定Agent框架紧密耦合,难以复用到其他系统中。

Agent Lightning的三大核心创新

面对这些挑战,Agent Lightning提出了三大核心创新,从根本上解决了"耦合危机"。

1. 统一数据接口:从执行到训练的无缝转换

Agent Lightning的突破性创新始于对AI Agent执行的精确数学建模。通过将agent执行形式化为部分可观察马尔可夫决策过程(POMDP),框架为RL训练提供了坚实的理论基础。

  • 状态(State)的新视角:定义为"语义变量快照",捕获执行状态的关键变量,如RAG系统中的用户输入、生成的查询、检索到的文档和最终答案。与传统软件执行的区别在于,它仅关注影响决策的关键语义变量,忽略中间操作和辅助代码。
  • 动作(Action)的重新定义:将LLM单次调用的完整输出序列视为单一动作,突破token-level优化限制,适应agent的多步决策特性。每个动作对应状态转移:执行后,agent过渡到新状态。
  • 奖励(Reward)的灵活配置:终端奖励评估任务完成质量,中间奖励反映工具调用结果等关键节点。奖励表示为:,其中对应第次调用的质量。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

统一数据接口示意图

上图,左侧展示agent执行流程,其中每个状态转换由语义变量更新表示(绿色矩形表示有效值的变量;灰色矩形表示当前状态中未赋值的变量)。右侧展示执行过程中收集的相应轨迹

基于这一模型,Agent Lightning将每个LLM调用视为一个state → action → reward 的 transition,从而将任意复杂的agent执行轨迹分解为一组标准化的(input, output, reward)三元组。这种统一数据接口具有三大优势:

  • 跨框架兼容性:LangChain、AutoGen、OpenAI SDK无差别支持,无论agent是如何构建的。这种抽象使RL训练摆脱了对特定Agent框架的依赖,实现了真正的"任意Agent + 任意RL算法"集成。
  • 选择性优化能力:可针对多agent系统中的特定组件进行优化,如Text-to-SQL任务中仅优化SQL生成和重写agent。这种能力源于框架对执行轨迹中关键组件的精准识别,允许开发者聚焦于真正需要优化的部分。
  • 灵活上下文构建:每个transition独立构建输入,避免上下文累积问题,支持多样化的上下文构造方式。例如,在RAG任务中,可以使用摘要、结构化提示或角色指令等方式构建每个transition的上下文,而无需将整个对话历史拼接。

这种接口设计使Agent Lightning能够处理任意复杂度的agent执行逻辑,包括多智能体协作、条件分支和循环结构,而无需了解底层实现细节。它实现了从执行到训练的无缝转换,让RL训练真正成为agent开发的自然延伸。

2. LightningRL:分层强化学习算法的巧妙设计

LightningRL是Agent Lightning的核心算法组件,它解决了如何利用统一数据接口中的transition进行有效训练的问题。

  • Credit Assignment Module:核心创新点:将episode-level return合理分配到每个transition。当前实现采用均等分配策略,将总回报平均分配给每个transition。但更先进的策略有巨大潜力——例如,基于价值函数的信用分配能够更精确地反映每个动作对最终结果的贡献。在多跳RAG任务中,首次查询的质量往往对最终答案有决定性影响,理想情况下应分配更高权重。

在 training 工作的一个可行方向是引入高层价值函数,分别估计每个动作的预期回报,从而更精细地分配贡献。这种精细化的信用分配不仅能提高训练效率,还能帮助模型学习更复杂的决策策略。对于实际应用,开发者可以根据任务特性选择合适的信用分配策略——对于简单任务,均等分配已足够;而对于长时程、高复杂度任务,则值得探索更精细的分配机制。

  • Token-Level优化的无缝兼容:将transition-level奖励分解为token-level优势估计,完美复用GRPO、PPO、REINFORCE++等单轮RL算法。在GRPO中,来自同一提示的样本被分组以估计优势,LightningRL将同一任务的多个执行分解为单独的动作,然后按任务分组以计算统计量。微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

LightningRL 算法工作原理

上图,在(a)中,单次调用GRPO适用于简单任务;(b)展示了传统多轮GRPO的局限性——需要将多轮交互拼接并应用掩码,这不仅增加了实现复杂度,还破坏了位置编码的连续性;(c)则展示了LightningRL的创新之处:将轨迹分解为独立的transitions,每个transition包含当前输入/上下文、输出和奖励

LightningRL与传统"拼接+掩码"方法相比具有显著优势:

  • 每个transition独立控制输入长度,避免长序列问题
  • 保持原始序列完整性,兼容RoPE等位置编码
  • 无需特殊处理,简化实现和调试
  • 天然支持多agent、条件分支等复杂工作流

这种设计解决了传统方法的问题,也为未来更复杂的RL算法提供了扩展空间。通过将复杂轨迹分解为基本单元,LightningRL使RL算法能够自然地适应agent的动态特性,为多轮交互中的信用分配问题提供了优雅的解决方案。

3. Training-Agent Disaggregation:训练与执行的完全解耦

Agent Lightning的系统设计围绕"训练-智能体解耦"(Training-Agent Disaggregation)架构展开,实现了训练框架与agent执行的完全分离。

  • Lightning Server(训练控制器):管理训练过程与模型更新,暴露OpenAI-like API接口,使更新后的模型对客户端可用。服务器负责协调任务分发与数据收集,处理数据并转发到训练框架进行模型参数更新。
  • Lightning Client(Agent运行时):封装agent执行逻辑,透明收集执行轨迹,无需修改agent代码。客户端与训练框架解耦运行,可在不同机器上独立部署,保持agent开发环境的纯净。
  • 通信桥梁:标准化OpenAI-like API接口,实现无缝集成。服务器维护可用任务记录,并在客户端准备就绪时分配任务,每个任务都有唯一的OpenAI-like API端点。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

训练-智能体解耦架构

上图,展示了如何实现训练与智能体执行的完全分离,这种架构实现了双向解耦:

  • Agent-Agnostic Training:训练框架无需了解agent内部逻辑,仅关注LLM优化和硬件资源管理。与VeRL、TRL等RL框架即插即用,训练框架(如 VeRL)是“无智能体倾向”的,它只关心大模型的优化和硬件资源调度,而不与任何特定的智能体逻辑耦合。
  • Trainer-Agnostic Agents:Agent无需感知训练框架存在,保持原有开发范式与工具链。具象化示例:一个基于AutoGen的multi-agent代码生成系统,只需将其LLM调用指向Lightning Server的OpenAI-like API,即可自动接入RL训练,无需修改任何agent协调逻辑。

这种双向独立性确保了agent可以专注于业务逻辑,而训练框架则专注于模型优化。它使计算密集型的LLM生成与轻量但多样灵活的应用逻辑解耦,前者由RL框架管理,后者可独立管理和执行,无需与GPU资源共置。

下图为 Agent Lightning系统流程图,展示了从任务分发、agent执行、数据收集、奖励计算到模型更新的完整闭环流程。该图清晰地描绘了Lightning Server、Lightning Client、RL训练框架、环境服务和奖励服务之间的动态交互,是Training-Agent Disaggregation架构在实际运行中的完整体现。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

 处理流程图 

实践验证:三大任务场景的稳定提升

Agent Lightning在三个截然不同的任务上进行了验证,每个任务使用不同的agent框架实现,充分展示了框架的通用性和适应性:

任务

框架

智能体数量

优化智能体数量

Text-to-SQL

LangChain

3

2

RAG QA

OpenAI Agents SDK

1

1

Math QA

AutoGen

1

1

上表是实验任务与设置概览

1. Text-to-SQL任务:选择性优化的完美验证

系统使用Spider数据集,包含超过10,000个问题,跨越200个数据库。LangChain实现的多agent系统包含三个角色:SQL生成器、检查器和重写器。训练过程中,仅优化了SQL生成和重写两个agent,验证了框架的选择性优化能力。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

Text-to-SQL任务奖励曲线

上图,展示训练奖励(a)和测试奖励(b)的稳定提升趋势

在这个任务中,SQL生成器首先生成查询,然后由SQL执行器执行。如果查询正确,返回数据库信息;如果错误,则返回错误消息。检查器评估SQL查询的正确性和检索信息的有效性,决定是否重写查询。如果需要重写,重写器根据检查器反馈修改查询;否则,生成最终答案。

实验的关键在于:仅优化SQL生成和重写两个agent,而保持检查器不变。这充分展示了Agent Lightning的选择性优化能力——无需修改agent协调逻辑,仅通过替换LLM endpoint即可实现特定组件的优化。奖励基于最终答案的正确性,模型性能通过测试集上的答案准确率评估。

结果表明,Agent Lightning使SQL生成和重写能力持续提升,验证了框架在复杂多agent系统中的有效性。特别值得注意的是,训练奖励和测试奖励同步增长,表明模型不仅在训练数据上表现良好,还具有良好的泛化能力。

2. RAG任务:开放域问答的突破

使用MuSiQue数据集,这是一个具有挑战性的多跳问答基准。系统需要在包含2100万文档的Wikipedia全库中进行检索,使用BGE模型生成的嵌入和余弦相似度作为检索器。奖励函数是格式分数和正确性分数的加权组合:。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

RAG任务奖励曲线

上图,展示训练奖励(a)和测试奖励(b)的稳定提升趋势。

在这个任务中,policy LLM首先生成自然语言查询,然后决定是否根据检索到的文档重试查询或生成答案。与Text-to-SQL任务不同,这里的查询是自由文本,使得检索和推理步骤更加开放。此外,给定的数据库规模远大于SQL任务,对agent提出了更高挑战。

奖励设计反映了任务的多维特性:格式分数检查LLM是否按特定格式输出(如使用<think>、<query>和<answer>标签),正确性分数计算预测答案与标准答案的词级F1分数。这种加权组合确保模型不仅生成正确答案,还遵循指定的输出格式。

实验结果表明,Agent Lightning能够持续提升agent性能,特别是在处理开放域、多跳推理任务方面表现出色。模型学会了生成更有效的检索查询和更准确的答案,展示了框架在复杂RAG场景中的实用价值。

3. Math QA任务:工具调用的精准掌握

使用Calc-X数据集,通过修改GSM8K和Ape210K等现有数学数据集构建,强调外部工具在推理工作流中的集成。AutoGen实现的agent需要决定如何以及何时调用计算器工具来解决算术和符号问题。

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

微软Agent Lightning:零代码接入RL,“解耦”任何AI Agent学会“在实践中学习”

数学问答任务奖励曲线

上图,展示训练奖励(a)和测试奖励(b)的稳定提升趋势

在这个任务中,给定自然语言数学问题,agent必须决定如何和何时调用计算器工具计算中间值,然后生成最终答案。这要求模型理解数学问题结构,发出语法正确的工具调用,并将工具输出正确整合到推理链中。

实验结果清晰展示了Agent Lightning的有效性:所有任务均呈现持续、稳定的性能提升,训练奖励和测试奖励同步增长。特别是在Text-to-SQL任务中,框架成功优化了多agent协同工作流;在RAG任务中,处理了开放式的查询生成和复杂推理;在Math QA任务中,精确掌握了工具调用的时机和方式。

关键实证:所有实验均基于原始框架的标准实现,仅通过替换LLM endpoint即完成RL接入,验证了"almost ZERO code modifications"的说法。更重要的是,所有任务均呈现持续、稳定的性能提升,证明了框架在真实场景中的有效性。

为什么Agent Lightning是游戏规则改变者?

与其他工作相比,Agent Lightning实现了真正的"低耦合"设计:

耦合程度

代表工作

局限性

High Coupling

verl扩展、TRL定制

需在训练框架内重构agent

Medium Coupling

RAGEN、Trinity-RFT

依赖序列拼接+掩码机制

Low Coupling

Agent Lightning

完全解耦,仅需API替换

Agent Lightning在多个维度上展现出独特优势:

1. 零迁移成本的RL集成:无论你的团队当前使用LangChain、AutoGen还是其他框架构建Agent,只需替换LLM endpoint,即可接入RL训练能力,无需重构现有代码库。这种无缝集成使RL训练成为agent开发的自然延伸,而非额外负担。

2. 选择性优化能力:在多Agent系统中,你可以精确选择需要优化的组件(如Text-to-SQL任务中仅优化SQL生成和重写agent),避免不必要的计算开销。这种能力使开发者能够将有限的计算资源集中在最关键的部分。

3. 真实世界数据驱动的持续进化:Agent Lightning使你的系统能够从真实交互中自动学习,不再依赖昂贵的人工标注数据,真正实现"在实践中学习"。通过将系统可观测性与模型优化无缝连接,它使现有的监控基础设施直接转化为训练信号,实现了运维与研发的闭环。

更深层次地,Agent Lightning解决了AI Agent训练领域的根本性问题:如何在不破坏现有agent生态的情况下引入持续学习能力。通过Training-Agent Disaggregation架构,它实现了"训练框架无需了解agent内部逻辑,agent也无需感知训练框架存在"的双向解耦,训练框架与智能体之间确立了相互独立的关系。

未来:从静态模型到"活体智能"

Agent Lightning不仅仅是一个工具框架,更代表了一种新的agent-centric learning范式。它成功打通了"运行时可观测性"与"模型优化"之间的鸿沟,使开发者能够以前所未有的方式持续提升agent性能。

1. Automatic Intermediate Rewarding (AIR) 的智能化

AIR机制是Agent Lightning解决稀疏奖励问题的关键创新。与传统方法需要人工设计中间奖励不同,AIR机制能够自动将系统监控信号转换为中间奖励信号。例如,在Text-to-SQL任务中,当工具调用返回SQL语法错误时,系统自动分配负奖励;当查询执行成功但结果不充分时,分配中等奖励;当查询完全正确时,分配较高奖励。

这种机制大大降低了RL训练的门槛,使开发者能够专注于业务逻辑而非奖励函数设计。对于实践者而言,AIR机制的关键价值在于它将系统可观测性与模型优化无缝连接,使现有的监控基础设施直接转化为训练信号。

2. Component of Interest (CoI) 概念扩展

Component of Interest (CoI)是Agent Lightning的关键概念扩展,它定义了执行轨迹中需要优化的组件子集。聚焦关键组件及其调用方式,是优化智能体的核心思路,且不限于基于强化学习的方法。这意味着优化可以超越LLM参数微调,扩展到prompt模板渲染等环节——将prompt模板渲染视为工具调用,通过将此工具标记为CoI,Agent Lightning可以实现自动prompt优化。

这种统一框架支持多种优化方法的集成,为未来研究提供了广阔空间。例如,可以同时应用RL微调、prompt优化和LoRA等轻量级优化方法,形成多维度的agent优化策略。

3. 与高效serving技术的协同优化

随着LLM服务技术的快速发展,Agent Lightning可以与以下技术协同优化:

  • 集成Parrot等LLM友好抽象,优化资源利用率和响应时间
  • 结合Minference等长上下文加速技术,处理累积上下文问题
  • 改进资源调度,提升工具调用和环境交互的效率

这些方向不仅扩展了Agent Lightning的能力边界,也为整个AI Agent训练领域提供了新的研究思路。

总结:从"一次性部署"到"持续进化"

AI Agent的发展已经走过了从简单提示到复杂系统的历程,但真正的挑战在于如何让这些系统具备持续进化的能力。Agent Lightning通过Training-Agent Disaggregation架构,实现了"训练框架无需了解agent内部逻辑,agent也无需感知训练框架存在"的双向解耦,为这一挑战提供了优雅的解决方案。

我们一起再来回顾一下,这个框架它解耦了什么:

回顾一下

1. 训练框架与Agent的解耦 (Agent-Agnostic Training & Trainer-Agnostic Agents)

这是最核心的解耦,也是“Training-Agent Disaggregation”架构的精髓。

  • 对训练框架而言,Agent是“无感”的:RL训练框架(如VeRL、TRL)不再需要了解你Agent的内部是如何用LangChain、AutoGen还是从零构建的。它只关心一个事情:优化LLM的参数。它通过一个标准的OpenAI-like API接收来自Agent的调用请求,处理完后返回结果,并收集训练数据。无论你Agent的内部逻辑多么复杂,训练框架都“看不见”,也“不需要看见”。这就是 Agent-Agnostic Training
  • 对Agent而言,训练框架是“透明”的:你现有的Agent代码,无论是用哪种框架写的,都无需进行任何修改。你只需要把原来指向OpenAI或vLLM的LLM调用端点,无缝地替换为指向Agent Lightning Server的端点。你的Agent运行时(Lightning Client)会自动捕获执行轨迹、计算奖励,并与服务器通信。整个过程对你的业务逻辑是完全透明的。这就是 Trainer-Agnostic Agents

这种双向解耦实现了“训练归训练,执行归执行”。开发者可以独立地设计和迭代Agent的业务逻辑,同时也能独立地选择和应用最先进的RL算法进行优化,两者互不干扰,通过一个标准化的API进行通信。

2. Agent执行轨迹与RL训练样本的解耦 (Trajectory-to-Transition Decomposition)

这是算法层面的解耦,由统一数据接口LightningRL算法实现。

  • 传统方法的耦合:传统方法(如序列拼接+掩码)将整个Agent的执行过程(Trajectory)视为一个单一的、超长的输入序列。训练逻辑与Agent的执行流程(如调用顺序、工具使用)紧密绑定,必须知道如何拼接和在哪里加掩码。
  • Agent Lightning的解耦:它将一个复杂的执行轨迹(Trajectory)分解(Decompose)为一系列独立的、标准化的“转换”(Transitions)。每个转换就是一个 (input, output, reward) 三元组,对应于一次LLM调用。Credit Assignment Module负责将最终的奖励(Return)合理地分配到这些独立的转换上。

这种解耦使得RL算法不再需要处理复杂的、动态的工作流。它只需要处理大量独立的、格式统一的样本。这不仅极大地简化了实现,还天然支持了多智能体、条件分支和循环等复杂模式,因为无论执行路径如何变化,最终都会被分解为一系列基本的转换。

核心价值

这一框架的核心价值在于:将AI Agent从静态模型转变为具备持续进化能力的"活体智能"。随着真实世界交互数据的积累,这些agent将不断优化其决策策略,真正实现"在实践中学习"的愿景。

在真实场景的“智能体”里打磨模型,很可能会成为突破能力边界的关键。因为真实场景中的数据,无论规模还是多样性,都已远超传统人工标注的数据集。通过实现训练与执行的完全解耦,Agent Lightning为AI Agent的持续优化提供了实用且可扩展的解决方案。

在这个数据驱动的时代,让你的AI Agent真正"学会学习",或许正是通向更强大人工智能的关键一步。Agent Lightning,正是这条道路上的重要里程碑。随着更多开发者将这一框架应用于实际场景,我们有望见证AI Agent从"一次性部署"向"持续进化"的范式转变,最终实现更加智能、适应性更强的AI系统。

Agent Lightning不仅提供了一种技术解决方案,也代表了一种新的思维方式——将AI Agent从静态模型转变为具备持续进化能力的"活体智能"。我一直在“觉察流”社群里强调,设计 AI 系统一定要用全栈视角来看待“核心进化问题”,对于希望构建下一代智能系统的开发者而言,掌握这一框架(或思想)将不再是"锦上添花",而应当是"必备技能"。

相关资讯

AI Agent 发展史:从 RL 驱动到大模型驱动 |AIR 2025

Manus 的出现将智能体推入当下 AI 格局的前列,使得这个过去略抽象的概念变得具体可感知。 然而行业中也不乏对 Manus 的争议,认为 Manus 没有底层技术创新力,更多的是将现有技术融合从而在工程上创新,即所谓的“套壳”。 虽说工程创新也是一种护城河,但“套壳”的说法也并非完全没道理。
4/9/2025 8:23:00 PM
王悦

解构GoldMine OS:AI Agent如何破解RWA“不可能三角”

大家好,我是肆〇柒,随着《香港稳定币法案》从提出到8月1日即将生效,合规稳定币的发行与交易框架首次在香港获得法律背书,这不仅为传统资产上链提供了清晰的监管路径,也让“链上数字货币的规模化合规交易”从概念走向现实。 在这一里程碑事件的背后,市场目光重新聚焦于RWA(Real-World Asset)代币化——如何让黄金、债券、房产等传统资产在区块链世界中焕发新生? GoldMine OS给出了一个惊艳答案。
8/1/2025 1:00:00 AM
肆零柒

这篇 AI Agent 漫游指南,带你建立全面的科技史观

作者 | kong以OpenAI o1与DeepSeek R1为代表的"类Agent"模型、OpenAI DeepResearch为代表的“真Agent”模型,正在重构AI Agent的技术范式。 Agentic Workflow的王座还没坐热,强化学习驱动的端到端Agent模型训练已呼啸而来。 未来趋势已指明:模型即产品,工程化Agent的命运将如何?
5/27/2025 10:05:00 AM
腾讯技术工程
  • 1