AI在线 AI在线

2025年软件开发者必备的十大AI智能体框架全解析

人工智能智能体(AI Agent)技术正在彻底改变软件开发的范式,从简单的聊天机器人进化到具备多步推理、工具调用和协作解决问题能力的复杂系统。 对于希望构建智能应用的开发者而言,选择合适的AI智能体框架成为项目成功的关键。 本文将深入解析2025年最值得关注的11大AI智能体框架,从技术特性、适用场景到代码示例进行全方位对比,帮助开发者做出明智选择。

人工智能智能体(AI Agent)技术正在彻底改变软件开发的范式,从简单的聊天机器人进化到具备多步推理、工具调用和协作解决问题能力的复杂系统。对于希望构建智能应用的开发者而言,选择合适的AI智能体框架成为项目成功的关键。本文将深入解析2025年最值得关注的11大AI智能体框架,从技术特性、适用场景到代码示例进行全方位对比,帮助开发者做出明智选择。

AI智能体框架概述:从理论到实践的桥梁

AI智能体框架是一类特殊的软件平台,它为开发者提供了构建自主AI系统的基础设施、工具和方法论。这些框架的核心能力包括:理解自然语言输入、对复杂问题进行推理、基于信息做出决策、执行具体行动以达成目标,以及通过交互不断学习优化。现代框架通常以大型语言模型(LLM)为认知引擎,结合记忆管理、工具调用、任务规划等专业化组件,形成完整的智能体开发体系。

随着GPT系列、LLaMA等基础模型的进步,AI智能体框架已发展出三大技术趋势:多智能体协作成为解决复杂问题的主流模式,如模拟软件开发团队的角色分工;工具集成能力持续深化,支持连接数据库、API、外部服务等多样化工具;工作流自动化程度显著提升,可实现从需求分析到代码生成的全流程自动化。这些趋势推动框架从单一功能工具向全栈智能应用开发平台演进。

开源先锋:LangChain——模块化智能体开发的事实标准

作为当前最受欢迎的开源框架,LangChain通过"连接语言模型与外部世界"的核心理念,建立了智能体开发的模块化标准。其最突出的优势在于能够将多个LLM调用与外部工具、数据源无缝连接,形成多步骤的智能工作流,这一特性使其在构建检索增强生成(RAG)系统、复杂对话机器人等场景中表现卓越。

LangChain的技术架构采用分层设计:最底层是对各类LLM的统一接口封装,中间层提供工具调用、记忆管理、链(Chain)结构等核心组件,最上层则是面向具体场景的智能体实现。这种设计赋予开发者细粒度的控制能力,既可以使用预定义的智能体类型(如ReAct模式智能体),也可以通过组合基础组件创建定制化方案。

复制
# LangChain创建ReAct智能体的典型示例
from langchain.agents import Tool, AgentExecutor, create_react_agent
from langchain.tools.ddg_search import DuckDuckGoSearchRun
from langchain_openai import ChatOpenAI

# 定义可调用的工具(此处为DuckDuckGo搜索)
search_tool = DuckDuckGoSearchRun()
tools = [
    Tool(
        name="Search",
        func=search_tool.run,
        descriptinotallow="用于搜索互联网获取最新信息"
    )
]

# 初始化语言模型
llm = ChatOpenAI(model="gpt-4")

# 创建ReAct模式智能体
agent = create_react_agent(llm, tools, "你是一个 helpful 的AI助手。")
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)

# 执行智能体任务
response = agent_executor.invoke({"input": "AI智能体框架的最新发展有哪些?"})
print(response["output"])

在实际应用中,LangChain特别适合需要实时信息整合的场景,如金融数据智能分析、医疗知识问答系统等。其社区活跃度高,拥有丰富的插件生态,但对开发者的编程能力要求较高,复杂工作流的设计需要深入理解框架的运行机制。

多智能体协作标杆:AutoGen——微软的智能体协同引擎

由微软研究院开发的AutoGen框架,将多智能体协作提升到了新的技术高度。其基于"演员(Actor)"的架构设计,允许创建具有不同角色、能力和目标的智能体,并通过自然语言对话实现协同工作,这种设计使得构建如软件开发团队、医疗诊断小组等复杂协作系统成为可能。

AutoGen的核心创新在于智能体对话协议的标准化:每个智能体可以理解对话历史、识别其他智能体的角色,并根据预设规则决定何时需要人类介入、何时可以自主决策。框架还内置了代码执行与调试支持,使得智能体在需要时能够生成并运行代码,这一特性在编程辅助、数据分析等场景中尤为实用。

复制
# AutoGen实现多智能体协作的代码示例
import autogen

# 配置LLM(此处使用GPT-4)
llm_config = {
    "config_list": [{"model": "gpt-4", "api_key": "your-api-key"}]
}

# 创建助手智能体
assistant = autogen.AssistantAgent(
    name="assistant",
    llm_cnotallow=llm_config,
    system_message="你是一个 helpful 的AI助手。"
)

# 创建用户代理智能体(支持人类介入)
user_proxy = autogen.UserProxyAgent(
    name="user_proxy",
    human_input_mode="TERMINATE",  # 任务完成时自动终止
    max_consecutive_auto_reply=10,
    is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
    code_execution_cnotallow={"work_dir": "coding"}
)

# 启动智能体对话
user_proxy.initiate_chat(
    assistant,
    message="编写一个计算斐波那契数列的Python函数。"
)

在企业级应用中,AutoGen适用于业务流程自动化场景,如财务报表生成、客户服务工单处理等。尽管作为较新的框架,其生态仍在完善中,但微软的技术背书和持续投入使其成为多智能体场景的首选之一。

团队协作模拟器:CrewAI——角色化智能体编排框架

CrewAI提出了"智能体团队"的创新概念,允许开发者为不同智能体分配特定角色(如研究员、作家、分析师),并定义角色间的协作流程和依赖关系。这种设计灵感来源于人类团队的工作模式,使得复杂任务可以被分解为多个角色协同完成的子任务。

框架的核心组件包括:角色定义模块(设置智能体的目标、背景和能力)、任务调度系统(管理任务依赖和执行顺序)、协作协议(规范智能体间的信息传递)。CrewAI支持与LangChain等框架集成,兼容多种LLM和云平台,为开发者提供了从简单到复杂场景的平滑过渡路径。

复制
# CrewAI构建智能体团队的示例代码
from crewai import Agent, Task, Crew
from langchain_openai import ChatOpenAI

# 初始化语言模型
llm = ChatOpenAI(model="gpt-4")

# 定义研究员角色智能体
researcher = Agent(
    role="研究分析师",
    goal="发现并分析AI技术的最新趋势",
    backstory="你是AI研究专家,对新兴趋势有敏锐洞察力",
    verbose=True,
    llm=llm
)

# 定义技术作家角色智能体
writer = Agent(
    role="技术作家",
    goal="基于研究结果创建全面报告",
    backstory="你是熟练的技术作家,能清晰解释复杂概念",
    verbose=True,
    llm=llm
)

# 定义研究任务(依赖于后续的写作任务)
research_task = Task(
    descriptinotallow="研究AI智能体框架的最新发展",
    expected_output="当前AI智能体框架的全面分析",
    agent=researcher
)

# 定义写作任务(依赖于研究任务的结果)
writing_task = Task(
    descriptinotallow="基于研究撰写AI框架详细报告",
    expected_output="结构良好的AI框架报告",
    agent=writer,
    cnotallow=[research_task]
)

# 创建智能体团队并执行任务
crew = Crew(
    agents=[researcher, writer],
    tasks=[research_task, writing_task],
    verbose=True
)
result = crew.kickoff()
print(result)

CrewAI特别适合知识密集型协作场景,如市场研究报告生成、学术论文撰写辅助等。其优势在于简化了多智能体系统的设计复杂度,通过角色和任务的抽象降低了开发门槛,但需要开发者具备一定的Python编程基础。

企业级集成利器:Semantic Kernel——微软的跨语言智能体开发包

由微软推出的Semantic Kernel旨在解决企业级AI应用的集成难题,它支持C#、Python和Java等多种编程语言,允许开发者将AI模型无缝嵌入现有应用系统中。框架的核心是"语义函数"概念,通过自然语言定义的提示词(Prompt)与AI模型交互,将复杂的AI能力转化为可调用的函数接口。

Semantic Kernel的技术架构包含三大模块:模型连接器(支持OpenAI、Azure OpenAI、Hugging Face等多种模型)、语义函数引擎(管理提示词工程和模型调用)、智能体规划器(处理多步骤任务的规划与执行)。这种设计使得企业开发者无需深入理解LLM原理,即可快速将AI能力集成到业务系统中。

复制
# Semantic Kernel创建语义函数的示例
import semantic_kernel as sk
from semantic_kernel.connectors.ai.open_ai import OpenAIChatCompletion

# 初始化内核
kernel = sk.Kernel()

# 配置OpenAI服务
api_key = "your-api-key"
model = "gpt-4"
kernel.add_chat_service("chat_completion", OpenAIChatCompletion(model, api_key))

# 通过自然语言定义语义函数
prompt = """
生成一个关于{{$input}}的创意故事。
故事应引人入胜,约100字。
"""

# 注册语义函数
story_function = kernel.create_semantic_function(prompt, max_tokens=500)

# 执行函数
result = story_function("一个学习绘画的机器人")
print(result)

# 创建简单智能体并规划任务
from semantic_kernel.planning import ActionPlanner
planner = ActionPlanner(kernel)
plan = await planner.create_plan("写一首关于人工智能的诗")
result = await plan.invoke()
print(result)

在企业应用场景中,Semantic Kernel适用于现有系统AI升级,如客服系统智能化改造、企业知识库问答等。其模块化设计和多语言支持降低了技术栈迁移成本,但作为较新的框架,需要开发者学习AI集成的特定概念。

工作流可视化专家:LangGraph——LangChain的复杂流程管理扩展

作为LangChain家族的成员,LangGraph专注于解决复杂生成式AI工作流的设计与管理难题。它引入了"状态图"的概念,将智能体的工作流程抽象为节点(LLM调用或工具执行)和边(节点间的转换关系),通过可视化的方式帮助开发者理解和优化复杂逻辑。

LangGraph支持多种智能体模式:工具调用模式(ReAct)、自问自答模式(Self-Ask)等,并提供了细粒度的工作流状态控制。开发者可以定义每个节点的输入输出格式、状态转换条件,甚至实现动态分支逻辑,这使得构建如客户旅程管理、多轮数据分析等复杂流程成为可能。

复制
# LangGraph定义状态图工作流的示例
from typing import TypedDict, Annotated, Sequence
from langgraph.graph import StateGraph, END
from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, AIMessage

# 定义工作流状态结构
class AgentState(TypedDict):
    messages: Annotated[Sequence[HumanMessage | AIMessage], "对话中的消息"]
    next_step: Annotated[str, "下一步操作"]

# 初始化语言模型
llm = ChatOpenAI(model="gpt-4")

# 定义工作流节点(研究、分析、总结)
def research(state: AgentState) -> AgentState:
    messages = state["messages"]
    response = llm.invoke(messages + [HumanMessage(cnotallow="彻底研究这个主题。")])
    return {"messages": state["messages"] + [response], "next_step": "analyze"}

def analyze(state: AgentState) -> AgentState:
    messages = state["messages"]
    response = llm.invoke(messages + [HumanMessage(cnotallow="分析研究结果。")])
    return {"messages": state["messages"] + [response], "next_step": "conclude"}

def conclude(state: AgentState) -> AgentState:
    messages = state["messages"]
    response = llm.invoke(messages + [HumanMessage(cnotallow="基于分析提供结论。")])
    return {"messages": state["messages"] + [response], "next_step": "end"}

# 创建状态图并定义流程
workflow = StateGraph(AgentState)
workflow.add_node("research", research)
workflow.add_node("analyze", analyze)
workflow.add_node("conclude", conclude)
workflow.add_edge("research", "analyze")
workflow.add_edge("analyze", "conclude")
workflow.add_edge("conclude", END)
workflow.set_entry_point("research")

# 编译并执行工作流
agent = workflow.compile()
result = agent.invoke({
    "messages": [HumanMessage(cnotallow="告诉我关于AI智能体框架的信息")],
    "next_step": "research"
})

# 输出最终结果
for message in result["messages"]:
    print(f"{message.type}: {message.content}\n")

LangGraph适合需要可视化流程管理的场景,如业务流程自动化、审批系统智能化等。其优势在于将抽象的智能体逻辑转化为可视化模型,但需要开发者具备较高的系统设计能力,主要适用于中大型项目。

数据整合专家:LlamaIndex——智能体的数据中枢

LlamaIndex专注于解决智能体与数据的交互难题,提供了一套完整的数据编排框架,支持连接各类私有和公共数据源(文档、数据库、API等),并将其转化为LLM可理解的格式。框架不仅是一个数据接口,更是一个"智能数据引擎",能够根据任务需求自动检索、整理和分析数据。

LlamaIndex的核心功能包括:数据索引构建(支持向量索引、关键词索引等多种方式)、查询优化(智能选择数据源和检索策略)、工具集成(将数据操作封装为智能体可调用的工具)。这些特性使其成为构建企业知识助手、垂直领域智能体的理想选择。

复制
# LlamaIndex创建数据驱动智能体的示例
from llama_index.core.agent import FunctionCallingAgentWorker
from llama_index.core.tools import FunctionTool
from llama_index.llms.openai import OpenAI

# 定义文档搜索工具函数
def search_documents(query: str) -> str:
    """在文档数据库中搜索信息。"""
    # 实际应用中会查询文档存储系统
    return f"以下是关于{query}的搜索结果:..."

# 创建函数工具
search_tool = FunctionTool.from_defaults(
    name="search_documents",
    fn=search_documents,
    descriptinotallow="在文档数据库中搜索信息"
)

# 初始化语言模型
llm = OpenAI(model="gpt-4")

# 创建智能体(支持函数调用)
agent = FunctionCallingAgentWorker.from_tools(
    [search_tool],
    llm=llm,
    verbose=True
)

# 执行智能体任务
response = agent.chat("查找关于AI智能体框架的信息")
print(response)

在实际应用中,LlamaIndex特别适合企业知识管理场景,如内部培训系统、产品手册问答等。其优势在于简化了数据与LLM的集成流程,但需要开发者理解数据索引和检索的相关概念。

轻量级创新:Atomic Agents——原子化智能体开发范式

Atomic Agents提出了"原子化"智能体开发的新理念,强调将复杂智能体分解为小而独立的可重用组件,每个组件处理特定的原子任务(如搜索、分析、生成)。这种设计受到微服务架构的启发,使得智能体系统更易于理解、测试和维护。

框架的核心特性包括:组件模块化(使用Pydantic定义清晰的输入输出模式)、系统可预测性(每个组件的行为明确可控)、生态扩展性(支持自定义组件开发)。Atomic Agents适合研究型项目和需要高度定制化的场景,为开发者提供了细粒度的控制能力。

复制
# Atomic Agents实现原子化组件的示例
from pydantic import BaseModel, Field
from typing import List
import os

# 定义输入输出数据模型
class ResearchQuery(BaseModel):
    topic: str = Field(descriptinotallow="需要研究的主题")
    depth: int = Field(descriptinotallow="研究深度(1-5级)")

class ResearchResult(BaseModel):
    findings: List[str] = Field(descriptinotallow="研究的关键发现")
    sources: List[str] = Field(descriptinotallow="信息来源")

# 定义原子化研究组件
class ResearchAgent:
    def __init__(self, api_key: str):
        self.api_key = api_key

    def process(self, input_data: ResearchQuery) -> ResearchResult:
        print(f"正在深度{input_data.depth}研究{input_data.topic}")

        # 模拟研究结果
        findings = [
            f"关于{input_data.topic}的发现1",
            f"关于{input_data.topic}的发现2",
            f"关于{input_data.topic}的发现3"
        ]

        sources = ["https://github.com/...", "https://docs.ai/..."]
        return ResearchResult(findings=findings, sources=sources)

# 使用示例
if __name__ == "__main__":
    agent = ResearchAgent(api_key=os.environ.get("OPENAI_API_KEY", "default-key"))
    query = ResearchQuery(topic="AI智能体框架", depth=3)
    result = agent.process(query)

    print("\n研究发现:")

对话系统专家:Rasa——专业级会话智能体框架

Rasa作为开源对话AI领域的标杆框架,专注于构建基于文本和语音的会话智能体,尤其在需要深度上下文理解的复杂对话场景中表现突出。与其他通用型智能体框架不同,Rasa提供了完整的对话管理解决方案,包括自然语言理解(NLU)、对话状态跟踪、响应生成等核心组件。

框架采用声明式领域定义(Domain Definition)方式,允许开发者通过YAML文件清晰定义智能体的意图(Intents)、实体(Entities)、响应(Responses)和动作(Actions)。这种方式使得对话逻辑的设计和维护更加直观,配合可视化的训练工具,大大降低了对话系统的开发门槛。

复制
# Rasa项目结构与核心代码示例
# domain.yml - 定义智能体的领域知识
"""
version: "3.1"
intents:
  - greet         # 问候意图
  - goodbye       # 告别意图
  - ask_framework # 询问框架意图
responses:
  utter_greet:
    - text: "你好!今天需要了解AI框架的哪些方面?"
  utter_about_frameworks:
    - text: "主流AI智能体框架包括LangChain、AutoGen等,你想了解哪一个?"
entities:
  - framework_name  # 框架名称实体
slots:
  framework_name:
    type: text
    mappings:
    - type: from_entity
      entity: framework_name
"""

# data/nlu.yml - 自然语言理解训练数据
"""
nlu:
- intent: greet
  examples: |
    - 嘿
    - 你好
    - 早上好
- intent: ask_framework
  examples: |
    - 给我讲讲AI框架
    - 最好的AI智能体框架有哪些
    - [LangChain](framework_name)的工作原理是什么
"""

# actions/actions.py - 自定义动作实现
from rasa_sdk import Action, Tracker
from rasa_sdk.executor import CollectingDispatcher

class ActionFrameworkInfo(Action):
    def name(self) -> str:
        return "action_framework_info"

    def run(self, dispatcher, tracker, domain):
        framework = tracker.get_slot("framework_name")
        if framework.lower() == "langchain":
            dispatcher.utter_message(text="LangChain是用于构建LLM应用的开源框架...")
        # 其他框架的处理逻辑
        return []

Rasa在客户服务和企业助手场景中具有显著优势,如银行客服机器人、电商导购助手等。其优势在于提供了专业的对话管理能力,但相比无代码平台,需要更多的技术投入,适合对对话体验有较高要求的中大型项目。

软件开发自动化:MetaGPT——从需求到代码的智能体团队

MetaGPT作为近年来备受关注的开源框架,其核心创新在于模拟软件开发团队的协作模式,通过多个智能体分别扮演产品经理、架构师、工程师等角色,实现从单行需求到完整项目的自动化生成。这种"智能体团队开发"模式正在重新定义软件开发的效率边界。

框架的工作流程遵循标准软件开发流程:需求分析(产品经理智能体生成PRD)、系统设计(架构师智能体创建设计文档)、代码实现(工程师智能体生成代码)、测试验证(测试智能体编写测试用例)。每个智能体基于预设角色的职责和LLM能力,协同完成复杂的开发任务。

复制
# MetaGPT模拟软件开发团队的示例
from metagpt.roles import ProjectManager, ProductManager, Architect, Engineer
from metagpt.team import Team
import asyncio

async def main():
    # 定义项目需求
    requirement = "开发一个允许用户搜索和比较AI智能体框架的Web应用"

    # 创建不同角色的智能体
    product_manager = ProductManager()
    project_manager = ProjectManager()
    architect = Architect()
    engineer = Engineer()

    # 组建开发团队
    team = Team(
        name="AI框架探索团队",
        members=[product_manager, project_manager, architect, engineer]
    )

    # 启动团队工作
    await team.run(requirement)
    # 输出结果将包括PRD、设计文档、代码和测试用例

MetaGPT在快速原型开发和小型项目自动化场景中具有独特价值,如内部工具开发、概念验证项目等。尽管目前仍依赖LLM的准确性,但已展现出改变软件开发模式的潜力,适合希望提升开发效率的团队。

跨模态协作:Camel-AI——通用型多智能体交互平台

Camel-AI(Communicative Agents for Machine Learning)提出了通用型多智能体交互的标准化框架,支持不同类型的智能体(文本智能体、图像智能体、工具智能体等)通过统一的通信协议协作完成任务。这种设计使得构建跨模态、跨领域的复杂智能系统成为可能。

框架的核心组件包括:智能体通信协议(定义消息格式和交互规则)、角色定义系统(支持自定义智能体角色和能力)、任务规划引擎(自动分解复杂任务为子任务)。Camel-AI特别适合需要多智能体持续交互的场景,如科学发现模拟、复杂问题协同求解等。

复制
# Camel-AI实现智能体对话的示例
from camel.agents import ChatAgent
from camel.messages import BaseMessage
from camel.typing import ModelType
import asyncio

async def main():
    # 创建用户智能体(需要数据分析帮助)
    user_agent = ChatAgent(
        model_type=ModelType.GPT_4,
        system_message="你是需要帮助分析AI框架数据的用户。"
    )

    # 创建助手智能体(数据分析专家)
    assistant_agent = ChatAgent(
        model_type=ModelType.GPT_4,
        system_message="你是专注于数据分析和AI框架的AI助手。"
    )

    # 发起对话
    initial_message = BaseMessage.make_user_message(
        role_name="User",
        cnotallow="我需要比较不同AI智能体框架的特性,你能帮我分析吗?"
    )

    # 多轮对话模拟
    assistant_response = await assistant_agent.step(initial_message)
    print(f"助手: {assistant_response.content}\n")

    for _ in range(3):
        user_response = await user_agent.step(assistant_response)
        print(f"用户: {user_response.content}\n")
        assistant_response = await assistant_agent.step(user_response)
        print(f"助手: {assistant_response.content}\n")

作为较新的框架,Camel-AI在科研协作和复杂问题求解领域展现出潜力,如多模态数据联合分析、跨学科研究支持等。其开源特性和灵活架构吸引了众多研究者,但生态和文档仍在持续完善中。

商业与开源的选择:框架评估与趋势洞察

面对众多框架选择,开发者需要从多个维度评估适合的解决方案:技术栈匹配度(如微软技术栈更适合Semantic Kernel)、项目复杂度(简单任务可选轻量级框架,复杂项目需多智能体支持)、团队技能(Rasa需要对话系统专业知识,LangChain适合Python开发者)、生态支持(开源框架的社区活跃度影响问题解决效率)。

2025年的AI智能体框架呈现出三大趋势:低代码化使得非技术人员也能构建基础智能体,多模态集成将文本、图像、语音等能力融合,边缘部署让智能体在终端设备上运行成为可能。这些趋势推动智能体技术从实验室走向更广泛的产业应用。

智能体框架作为AI应用的新基建

从LangChain的模块化设计到MetaGPT的软件开发自动化,从Rasa的专业对话能力到Camel-AI的跨模态协作,2025年的AI智能体框架已形成丰富的技术生态。对于开发者而言,这些框架不仅是工具,更是构建智能应用的基础设施——它们降低了AI开发的技术门槛,拓展了可能性边界。

无论选择哪款框架,核心在于理解其设计哲学与适用场景:LangChain适合快速构建功能丰富的智能应用,AutoGen擅长复杂多智能体协作,Rasa专注于对话体验优化,MetaGPT则引领软件开发自动化浪潮。随着技术的持续演进,保持对框架特性和行业应用的敏感度,将成为开发者在智能时代的核心竞争力。未来已来,智能体框架正在书写软件开发的新篇章。

相关资讯

港大90后开源,OpenAI 2万刀博士级AI智能体平替!自主研究媲美顶会论文

在AI技术迭代的坐标系中,OpenAI构建的五级演进模型(对话系统→组织协调者)为行业发展提供了战略指引。 其中,处于第三至四阶段的自主研究智能体(Autonomous Research Agent)正成为技术突破的焦点。 就在最近,来自香港大学HKUDS的3位研究团者开源了一种全新的AI-Researcher系统,正是这一关键领域的重要探索。
3/17/2025 8:40:00 AM
新智元

Qwen-Agent:基于通义千问的智能体开发框架全面解析

最近逛 GitHub 时,看到了 Qwen 开源的专用 Agent 框架,Qwen-Agent 。 为开发者提供了强大的工具和灵活的接口,支持构建具备指令遵循、工具使用、规划、记忆等能力的智能体应用。 本文将深入解析 Qwen-Agent 的核心功能、安装配置、使用示例及常见问题,帮助开发者快速上手并高效开发。
5/15/2025 3:25:00 AM
wayn

一次示范让Agent适应各种新环境,浙大杭电智能体框架入选NeurIPS

只需一次人类示范,就能让智能体适应新环境? 来自杭州电子科技大学和浙江大学的研究者,提出了一套新的智能体框架AutoManual。 该研究有效解决了智能体过度依赖人类专家提供的知识,难以自主适应新环境的问题。
11/29/2024 1:58:49 PM
  • 1